先介绍几个概念:
决策树,朴素贝叶斯,梯度下降,线性回归
决策树
朴素贝叶斯
这里我只想到贝叶斯的概率公式,欢迎补充。
梯度下降
记得第一次看见这个概念是在多元微积分里,这次捡起来。
梯度下降用来最小化误差。
线性回归
提到这个直接想到的就是最小二乘法,通过散点拟合线性方程。
接下来是机器学习常用的算法:
逻辑回归
SVM(支持向量机)
核函数
神经网络
K均值聚类
如果数据有很多堆呢?
层次聚类
如果不知道k聚类分成多少堆,这时候用层次聚类再合适不过了。
总结:
可以说逻辑回归是一个把数据分成部分的忍者,而SVM又一个对周围的数据比较挑剔。
神经网络是一个忍者群,核函数让不同的东西上升或者下降。