前言 学习分类算法,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理解LDA就是很有必要的了。 谈到LDA,就不得不谈谈PCA,PC...
前言 学习分类算法,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理解LDA就是很有必要的了。 谈到LDA,就不得不谈谈PCA,PC...
有个问题是损失函数是用真实矩阵与P*Q相减,那真实矩阵里面没有评分的怎么办(假设此时数据是用户对电影的评分),这样不就会造成很大的差距吗
推荐系统系列之隐语义模型一、隐语义模型的基本思想 隐语义模型是近年来推荐系统领域较为热门的话题,它主要是根据隐含特征将用户与物品联系起来。 现从简单例子出发介绍隐语义模型的基本思想。假设用户A喜欢《...
每次看都有收获,也出现了一个新的问题,GBDT树的构建,是用CART回归树去拟合数据的负梯度,下一颗树是用上棵树的结构,继续用回归树去拟合负梯度,如此循环。
而这个XgBoost树上述只讲了1棵树用类似决策树的信息增益来构建,这样好像没有产生新的数据,下一颗树如何构建呢?
xgboost的原理没你想像的那么难xgboost 已然火爆机器学习圈,相信不少朋友都使用过。要想彻底掌握xgboost,就必须搞懂其内部的模型原理。这样才能将各个参数对应到模型内部,进而理解参数的含义,根据需...
在深度学习中,RNN已经成为标准组件,很多领域都要用到,LSTM则是最经典的RNN结构。所以面试时是必问的,最基本的面试题就是要说清楚LSTM的结构。本文试图对其结构进行浅显...
之前,我发过一篇文章,通俗地解释了梯度下降算法的数学原理和推导过程,推荐一看。链接如下: 简单的梯度下降算法,你真的懂了吗? 我们知道,梯度下降算法是利用梯度进行一阶优化,而...
写的很好!
机器学习中牛顿法凸优化的通俗解释之前,我发过一篇文章,通俗地解释了梯度下降算法的数学原理和推导过程,推荐一看。链接如下: 简单的梯度下降算法,你真的懂了吗? 我们知道,梯度下降算法是利用梯度进行一阶优化,而...
@milter 这点我明白呀,只是不清楚:
这里把-H(P)=maxL,从而min-H(P)=minmaxL,-H(P)为什么不等于minL呢。。。L后面的约束全是等于0的呀
机器学习面试之最大熵模型最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...
我总结的:
欠拟合是偏差大,方差小
过拟合是偏差小,方差大
机器学习面试之偏差方差在机器学习的面试中,能不能讲清楚偏差方差,经常被用来考察面试者的理论基础。偏差方差看似很简单,但真要彻底地说明白,却有一定难度。比如,为什么KNN算法在增大k时,偏差会变大,...
在机器学习的面试中,能不能讲清楚偏差方差,经常被用来考察面试者的理论基础。偏差方差看似很简单,但真要彻底地说明白,却有一定难度。比如,为什么KNN算法在增大k时,偏差会变大,...
感谢楼主,学到了很多!!
又到了我提问的环节哈哈
这个模型转换对偶问题的那里,与SVM不同是,SVM是不等式约束,maxL(P,w)等于原式(-H(P))我很清楚,我看这里2个约束都是等式约束,那若满足这个约束,那这里的L(P,w)后面的岂不是永远是0,那样不变成了maxL=原式,min也等于原式了?
也就是说你的“屏幕快照 2018-07-22 下午8.11.02.png“最原始问题也可以2个min?
机器学习面试之最大熵模型最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...
还有个问题是等式约束求偏导的时候,有n+k个等式,分别求偏导=0,求出来就是极值,那原式是max或者min怎么区分呢?意思是不管原式是求max还是min,都是用的一个方法,那岂不是max=min了吗?求解答,感谢!!
机器学习数学原理(5)——广泛拉格朗日乘子法机器学习数学原理(5)——广泛拉格朗日乘子法 这一篇博客针对的是有约束的凸优化问题,主要是为后面的最优间隔分类器以及其演化的SVM(支持向量机,Support Vector ...
等式约束的情况下也能用对偶问题解决吧
机器学习数学原理(5)——广泛拉格朗日乘子法机器学习数学原理(5)——广泛拉格朗日乘子法 这一篇博客针对的是有约束的凸优化问题,主要是为后面的最优间隔分类器以及其演化的SVM(支持向量机,Support Vector ...
最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...
@milter 多谢啦~~
机器学习面试之归一化与标准化在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...
@milter 嗯嗯,这下理通了,很多博客那一个样本说均值方差,导致这里真难理解~
机器学习面试之归一化与标准化在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...
在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...