什么叫回归,什么叫分类?
对连续型变量做预测叫回归,对离散型变量做预测叫分类
线性回归的主要任务是什么?
线性回归的任务是找到一个从特征空间X到输出空间Y的最优的线性映射函数
什么是线性回归
简单地说就是,给定由d个属性描述的示例线性回归试图学得一个通过属性的线性组合来进行预测的函数,即
简单的线性回归
在这里我们只讨论一种最简单的情形:输入的属性数目只有一个。对于离散属性,若属性间存在“序”关系,可通过连续化将其转化为连续值,例如二值属性“身高”的取值“高”“矮”可转化为{1.0,0.0},三值属性“高度”的取值“高”“中”“低”,可转化为{1.0,0.5,0.0};若属性间不存在序关系,假定有k个属性值,则通常转化为k维向量,例如属性“瓜类”的取值“西瓜”,“南瓜”,“黄瓜”可转化为(0,0,1),(0,1,0),(1,0,0).
线性回归试图学得
这里我们可以使用均方误差确定w和b。均方误差是回归任务中最常用的性能度量,因此我们试图让均方误差最小化,即
基于均方误差最小化来进行模型求解的方法称为“最小二乘法”,在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。
求解w和b使上面公式最小化的过程,称为线性回归模型的最小二乘“参数估计”,分别对w和b求导可得
令上面两条公式为零可得到w和b最优解的闭式解
这里举一个例子:这个例子是预测住房价格的,我们要使用一个数据集。在这里,我要根据不同房屋尺寸所售出的价格,画出我的数据集。比方说,如果你朋友的房子是1250平方尺大小,你要告诉他们这房子能卖多少钱。那么,你可以做的一件事就是构建一个模型,也许是条直线,从这个数据模型上来看,也许你可以告诉你的朋友,他能以大约220000(美元)左右的价格卖掉这个房子。
多元线性回归
更多的情形,样本是由多个属性描述的,此时,我们试图学得类似的可利用最小二乘法来对w和b进行估计。
简单的线性回归实现
这是一个简单的线性回归,也就是只有一个变量的线性回归。
import numpy as np
def fitSLR(x, y):
'''
训练简单线性模型
'''
n = len(x) # 获取数据集长度
dinominator = 0 # 分母
numerator = 0 # 分子
for i in range(0, n):
numerator += (x[i] - np.mean(x))*y[i]
dinominator += (x[i] - np.mean(x))**2
b1 = numerator/float(dinominator) # 回归线斜率
b0 = np.mean(y)-b1*np.mean(x) # 回归线截距
return b0, b1
def predict(x, b0, b1):
'''
根据学习算法做预测
'''
return b0 + x*b1
x = [1, 3, 2, 1, 3]
y = [14, 24, 18, 17, 27]
b0, b1 = fitSLR(x, y)
print("intercept:", b0, " slope:", b1)
x_test = 6
y_test = predict(6, b0, b1)
print("y_test:", y_test)
#输出
#intercept: 10.0 slope: 5.0
#y_test: 40.0
我们也可以画图看看
# 画图
import matplotlib.pyplot as plt
y_perd = b0 + b1*np.array(x)
plt.scatter(x, y) #散点图
plt.plot(x, y_perd, color='black')
plt.xlabel("x")
plt.ylabel("y")
plt.axis([0, 6, 0, 30]) # 设置横纵坐标的范围
plt.show()
使用UCI大学公开的数据,跑线性回归
数据的介绍:http://archive.ics.uci.edu/ml/datasets/Combined+Cycle+Power+Plant
数据的下载地址:http://archive.ics.uci.edu/ml/machine-learning-databases/00294/
下载的是一个压缩包,我们把他解压后,是一个xlsx,我们可以先用excel把他打开,然后另存为.csv格式,方便我们读取。
里面是一个循环发电场的数据,共有9568个样本数据,每个数据有5列,分别是:AT(温度), V(压力), AP(湿度), RH(压强), PE(输出电力)。我们的问题是得到一个线性的关系,对应PE是样本输出,而AT/V/AP/RH这4个是样本特征, 机器学习的目的就是得到一个线性回归模型,即:
PE=θ0+θ1∗AT+θ2∗V+θ3∗AP+θ4∗RH
而需要学习的,就是θ0,θ1,θ2,θ3,θ4θ0,θ1,θ2,θ3,θ4这5个参数。
用pandas来读取数据
import numpy as np
import pandas as pd
pd.set_option('display.max_columns', None) # 输出结果显示全部列
# 读取数据,从第1行开始
data = pd.read_csv(r"ccpp.csv", header=0)
验证一下看是否读取成功,输出数据的前5行
# 显示数据的前五行,如果是最后五行,用data.tail(),默认为5行
print(data.head())
# 查看描述性统计,只能看数值型数据.
#print(data.describe())
准备运行算法的数据
# 显示数据的维度
print(data.shape)
# 现在我们开始准备样本特征X,我们用AT, V,AP和RH这4个列作为样本特征
x = data[['AT', 'V', 'AP', 'RH']]
# 接着我们准备样本输出y, 我们用PE作为样本输出
y = data[['PE']]
划分训练集和数据集
# 划分训练集和测试集
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=0)
# 查看训练集和测试集的维度
# print('x_train.shape:', x_train.shape)
# print('x__test.shape:', x_test.shape)
# print('y_train.shape:', y_train.shape)
# print('y_test.shape:', y_test.shape)
运行scikit-learn的线性模型
# 从sklearn库中导入线性回归函数
from sklearn.linear_model import LinearRegression
# 执行函数获得一个线性回归模型
LR = LinearRegression() # 这是一个未经训练的机器学习模型
# 对模型传入输入数据x_train和输出数据y_train
LR.fit(x_train, y_train) # 这是一个经过训练的机器学习模型
# 输出线性回归的截距和各个系数
print('LR.intercept_:', LR.intercept_)
print('LR.coef_:', LR.coef_)
输出如下:
LR.intercept_: [452.84103716]
LR.coef_: [[-1.97313099 -0.23649993 0.06387891 -0.15807019]]
也就是说PE与其他的4个变量的关系如下:
PE=452.84103716−1.97313099∗AT−0.23649993∗V+0.06387891∗AP−0.15807019∗RH
评价模型
MSE (Mean Squared Error)叫做均方误差
RMSE(Root Mean Squard Error)均方根误差。
# 评价模型。这里使用MSE和RMSE来评价模型的好坏
y_pred = LR.predict(x_test)
# 引入sklearn模型评价工具库
from sklearn import metrics
print("MSE: ", metrics.mean_squared_error(y_test, y_pred))
print("RMSE: ", np.sqrt(metrics.mean_squared_error(y_test, y_pred)))
输出如下:
MSE: 19.73369930349765
RMSE: 4.442262858442491
画图观察结果
这里画图显示真实值和预测值的变化关系,离中间的直线y=x直接越近的点代表预测损失越低。
import matplotlib.pyplot as plt
fig, ax = plt.subplots()
# 画散点图
ax.scatter(y_test, y_pred)
ax.plot([y.min(), y.max()], [y.min(), y.max()], 'k--', lw=4)
# 设置标题
ax.set_title('Plot')
# 设置X轴标签
ax.set_xlabel('Measured')
# 设置Y轴标签
ax.set_ylabel('Predicted')
# 显示所画的图
plt.show()
完整的代码可以去我的码云查看。