1.大多数机器学习都要将多维问题转化为低维
2.维度实际上就是影响一个实际问题的各类参或者叫特征 英文翻译就是Feature 因变量就是target
3.如何转化为低维呢?大多数问题都要涉及到,仿射变化(也就是转化为WX+B的形式 线性化)
4.分类问题(可以用 KVM 和 神经网络),根本问题就是找到一个超平面 让最近的点(这个点和参考点不是一类)最远。
5.如何仿射变化呢?以二维为例,就是要把g(x,v,n)=f(x)+w(v)+n
6.低维问题 可以通过转化函数 转化到高维
7.贝叶斯学派以统计学的角度 ,概率来认知世界,定义学习的过程。
8.高斯函数的理解二维 和高维
http://www.cnblogs.com/herenzhiming/articles/5276106.html