简单机器学习模型 - Linear Regression

回归算法是监督式机器学习算法非常重要且常用的一个分类,经常被用来建立各种预测模型。

Regression Algorithm

简单来说,假设我们有一个数据集,把其中每个数据项都是看作是给定空间的一个点,那么就可以得到一个点的集合,那么回归就是用一个函数去对这个点的集合进行拟合,使得点集与这个函数的偏差最小。

Linear Regression

线性回归的预测模型,也可以说是拟合函数是一个一次方程或者叫线性方程。

比如我们有一个数据集
\begin{array}{cc}
\mathrm{x} & \mathrm{y} \
\hline \
\mathrm{x_1} & \mathrm{y_1} \
\mathrm{x_2} & \mathrm{y_2} \
\mathrm{x_3} & \mathrm{y_3} \
\mathrm{x_4} & \mathrm{y_4} \
\mathrm{x_5} & \mathrm{y_5} \
\end{array}

为了拟合这些点,建立一个简单线性回归模型:
$$ y=ax + b $$
接下来要做的就是估计该模型的参数,来使得我们的模型对数据达到最佳拟合状态。

线性回归把关注点放在给定 x 值的 y 的条件概率分布,而不是 x 和 y 的联合概率分布。

在计算一个最佳拟合的不同标准之中,最小二乘法是最常用的算法。

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。 -- from wiki

最小二乘法通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。
$$ \sum_{i=1}^m (y^i - f(xi))2 $$

推广至多元线性回归,那就是影响目标值 y 的元素有多个:
$$ y=ax + bz + cm + dn $$
有数据:
\begin{array}{cc}
\mathrm{y} & \mathrm{x} & \mathrm{m} & \mathrm{n} \
\hline \
\mathrm{x_1} & \mathrm{y_1} & \mathrm{m_1} & \mathrm{n_1} \
\mathrm{x_2} & \mathrm{y_2} & \mathrm{m_2} & \mathrm{n_2}\
\mathrm{x_3} & \mathrm{y_3} & \mathrm{m_3} & \mathrm{n_3}\
\mathrm{x_4} & \mathrm{y_4} & \mathrm{m_4} & \mathrm{n_4}\
\mathrm{x_5} & \mathrm{y_5} & \mathrm{m_5} & \mathrm{5_1}\
\end{array}

线性回归是机器学习中一个最简单的监督学习(Supervised Learning)模型



下面我对健康习惯的用户做了抽样,样本大小是 2000,并尝试对其健康习惯记录情况与首页打卡情况建立线性回归模型

import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from sklearn import datasets, linear_model

def get_data(file_name):
  data = pd.read_csv(file_name)
  x_p = []
  y_p = []
  for habit_records ,checkin_records in zip(data['habits'],data['checkins']):
    x_p.append([float(habit_records)])
    y_p.append(float(checkin_records))
  return x_p,y_p

def linear_model_main(x_p,y_p):
  regr = linear_model.LinearRegression()
  regr.fit(x_p, y_p)
  predictions = {}
  predictions['intercept'] = regr.intercept_
  predictions['coefficient'] = regr.coef_
  print(predictions)
  return predictions
  
x, y = get_data('linear_date.csv')
linear_model_main(x, y)

我把样本数据写在一个 csv 文件中,(感叹下,python 处理起 csv 和 ruby 一样方便呀省了不少事)

数据大概是这样:

[[[2.0], 6.0], [[43.0], 3.0], [[1.0], 2.0], [[165.0], 2.0], [[31.0], 3.0], [[10.0], 2.0], [[16.0], 2.0], [[12.0], 3.0], [[136.0], 5.0], [[5.0], 2.0], [[3.0], 2.0], [[1.0], 182.0], [[1.0], 6.0], [[7.0], 45.0], [[3.0], 2.0], [[5.0], 10.0], [[4.0], 2.0], [[5.0], 5.0], [[3.0], 31.0], [[10.0], 10.0], [[6.0], 72.0], [[185.0], 4.0], [[11.0], 18.0], [[62.0], 2.0], [[6.0], 2.0], [[26.0], 372.0], [[114.0], 2.0], [[6.0], 2.0], [[9.0], 17.0], [[7.0], 41.0], [[325.0], 2.0], [[4.0], 3.0], [[6.0], 2.0], [[29.0], 11.0], [[1.0], 4.0], [[1.0], 3.0], [[9.0], 41.0], [[1.0], 2.0], [[3.0], 6.0], [[5.0], 2.0], [[4.0], 2.0], [[5.0], 53.0], [[4.0], 13.0], [[1.0], 2.0], [[2.0], 20.0], [[11.0], 14.0], [[19.0], 2.0], [[3.0], 2.0], [[47.0], 3.0], [[1.0], 2.0], [[15.0], 2.0], [[7.0], 9.0], [[2.0], 2.0], [[1.0], 3.0], [[4.0], 2.0], [[5.0], 53.0], [[119.0], 2.0], [[15.0], 2.0], [[9.0], 5.0], [[3.0], 3.0], [[97.0], 2.0], [[83.0], 9.0], [[5.0], 8.0], [[5.0], 2.0], [[152.0], 2.0], [[3.0], 9.0], [[276.0], 2.0], [[65.0], 2.0], [[30.0], 2.0], [[195.0], 187.0], [[11.0], 7.0], [[51.0], 7.0], [[15.0], 4.0], [[16.0], 2.0], [[1.0], 15.0], [[10.0], 5.0], [[9.0], 52.0], [[6.0], 4.0], [[5.0], 2.0], [[4.0], 51.0], [[7.0], 41.0], [[5.0], 2.0], [[17.0], 431.0], [[1.0], 2.0], [[5.0], 3.0], [[25.0], 3.0], [[5.0], 2.0], [[1.0], 2.0], [[1.0], 2.0], [[7.0], 11.0], [[20.0], 7.0], [[6.0], 3.0], [[4.0], 82.0], [[3.0], 4.0], [[9.0], 37.0], [[1.0], 2.0], [[2.0], 2.0], [[61.0], 2.0], [[3.0], 3.0], [[6.0], 2.0], [[2.0], 3.0], [[53.0], 4.0], [[25.0], 2.0], [[38.0], 159.0] ... ]

最后得到的截距值为:21.606768655113363,斜率是:[ 0.02046425]
画出拟合后的函数图像来就像这样:

def show_linear_line(x_p,y_p):
  regr = linear_model.LinearRegression()
  regr.fit(x_p, y_p)
  plt.scatter(x_p,y_p, color='blue')
  plt.plot(x_p,regr.predict(x_p),color='red',linewidth=4)
  plt.xticks(())
  plt.yticks(())
  plt.show()
linear habits checins
linear habits checins

可以看出,线性回归对于异常的值或者说是脱离正常预测的值是非常敏感的。显而易见这个模型非常不平衡,而最佳模型就是取得预测偏差和模型方差之间的平衡。预测偏差过高就是拟合不够,方差过高就是拟合过度

解决高方差有几种思路,比如可以尝试获取更多的训练样本,或者减少所使用特征的集合,也就是减少影响集。
而解决高偏差,可以尝试使用其他特征,或者增加多项组合特征。

我对于 健康习惯记录数 - 打卡数 的线性拟合尝试所得到的结果表明,这两个动作看起来并没有明显的线性关系。或许我应该增加新的特征维度来约束其回归。



最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,924评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,781评论 2 378
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,813评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,264评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,273评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,383评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,800评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,482评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,673评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,497评论 2 318
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,545评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,240评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,802评论 3 304
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,866评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,101评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,673评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,245评论 2 341

推荐阅读更多精彩内容