1.统计学习笔记
久闻李航老师的这本统计学习方法的大名,苦于数学基础停留在本科期末考试70分的水平,战战兢兢,最近种草人工智能,多方研究从这本书开始再好不过了,于是硬着头皮上了,发现概念并没有非常晦涩难懂,详细的笔记没有来得及记录,下面给出两个不错的笔记的链接。
2.算法Python实现
实现前只作简单介绍,理解不到位的地方,求大神指点,此外入门语言是JAVA,python只知道一些基础语法,写的比较丑陋,勿喷。
2.1感知机
感知机(二类分类)根据已有的输入和输出(输出只有1或-1),计算得到分离超平面S(wx+b),其中w是S的法向量,b是S的截距。然后通过S对位置的输入给出预测的输出分类结果。
2.1.1原始感知机算法
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.lines import Line2D
def loadData():
"""
加载数据
eg:
1 1 -1
0 1 -1
3 3 1
4 3 1
2 0.5 -1
3 2 1
4 4 1
1 2 -1
3 3 1
3 4 1
3 1 -1
0.5 3 1
2 2 -1
3 1.8 -1
1 3.5 1
0.5 2.5 -1
"""
data = np.loadtxt('testSet.txt')
dataMat = data[:, 0:2]
labelMat = data[:, 2]
return dataMat, labelMat
def sign(val):
if val >= 0:
return 1
else:
return -1
def trainPerceptron(dataMat, labelMat, eta):
"""
训练模型
eta: learning rate(可选步)
"""
m, n = dataMat.shape
weight = np.zeros(n)
bias = 0
flag = True
while flag:
for i in range(m):
if np.any(labelMat[i] * (np.dot(weight, dataMat[i]) + bias) <= 0):
weight = weight + eta * labelMat[i] * dataMat[i].T
bias = bias + eta * labelMat[i]
print("weight, bias: ", end="")
print(weight, end=" ")
print(bias)
flag = True
break
else:
flag = False
return weight, bias
# 可视化展示分类结果
def plotResult(dataMat, labelMat, weight, bias):
fig = plt.figure()
axes = fig.add_subplot(111)
type1_x = []
type1_y = []
type2_x = []
type2_y = []
for i in range(len(labelMat)):
if (labelMat[i] == -1):
type1_x.append(dataMat[i][0])
type1_y.append(dataMat[i][1])
if (labelMat[i] == 1):
type2_x.append(dataMat[i][0])
type2_y.append(dataMat[i][1])
type1 = axes.scatter(type1_x, type1_y, marker='x', s=20, c='red')
type2 = axes.scatter(type2_x, type2_y, marker='o', s=20, c='blue')
y = (0.1 * -weight[0] / weight[1] + -bias / weight[1], 4.0 * -weight[0] / weight[1] + -bias / weight[1])
axes.add_line(Line2D((0.1, 4.0), y, linewidth=1, color='blue'))
plt.xlabel('X')
plt.ylabel('Y')
plt.show()
def _init_():
dataMat, labelMat = loadData()
weight, bias = trainPerceptron(dataMat, labelMat, 1)
plotResult(dataMat, labelMat, weight, bias)
return weight, bias
2.1.2运行结果
2.2k近邻法
k近邻法(基本分类或回归法),根据训练数据输入的对应输出,将数据进行分类。输入新的向量X时,找出已有数据的k个最靠近X的点,判断这些点中最多的类型为T,则新输入预测的对应类型为T。求最近距离时一般会用到kd树,优化检索。kd树的创建和检索过程请查看相关资料。
2.2.1k邻近算法
由于导入训练数据和可视化代码类似这里省略
import numpy as np
import matplotlib.pyplot as plt
import operator
# 根据输入测试实例进行k-近邻分类
def classify(in_x, data_set, labels, k):
data_set_size = data_set.shape[0]
diff_mat = np.tile(in_x, (data_set_size, 1)) - data_set
sq_diff_mat = diff_mat ** 2
sq_distances = sq_diff_mat.sum(axis=1)
distances = sq_distances ** 0.5
sorted_dist_indicies = distances.argsort()
class_count = {}
for i in range(k):
vote_ilabel = labels[sorted_dist_indicies[i]]
class_count[vote_ilabel] = class_count.get(vote_ilabel, 0) + 1
sorted_class_count = sorted(class_count.items(), key=operator.itemgetter(1), reverse=True)
return sorted_class_count[0][0]
def _init_(x, k):
dataMat, labelMat = loadData('testSet.txt')
in_x = x
plotResult(dataMat, labelMat, in_x)
result = int(classify(in_x, dataMat, labelMat, k))
return result
2.2.2运行结果
类别1黑色,类别2绿色,类别3黄色,新数据是红色叉叉
简单的测试结果如下:
训练数据:[3,5] k值:1 结果:3
训练数据:[3,5] k值:5 结果:2
训练数据:[3,5] k值:15 结果:1