240 发简信
IP属地:内蒙古
  • 降维算法二:LDA(Linear Discriminant Analysis)

    前言 学习分类算法,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理解LDA就是很有必要的了。 谈到LDA,就不得不谈谈PCA,PC...

  • 有个问题是损失函数是用真实矩阵与P*Q相减,那真实矩阵里面没有评分的怎么办(假设此时数据是用户对电影的评分),这样不就会造成很大的差距吗

    推荐系统系列之隐语义模型

    一、隐语义模型的基本思想 隐语义模型是近年来推荐系统领域较为热门的话题,它主要是根据隐含特征将用户与物品联系起来。 现从简单例子出发介绍隐语义模型的基本思想。假设用户A喜欢《...

  • 每次看都有收获,也出现了一个新的问题,GBDT树的构建,是用CART回归树去拟合数据的负梯度,下一颗树是用上棵树的结构,继续用回归树去拟合负梯度,如此循环。
    而这个XgBoost树上述只讲了1棵树用类似决策树的信息增益来构建,这样好像没有产生新的数据,下一颗树如何构建呢?

    xgboost的原理没你想像的那么难

    xgboost 已然火爆机器学习圈,相信不少朋友都使用过。要想彻底掌握xgboost,就必须搞懂其内部的模型原理。这样才能将各个参数对应到模型内部,进而理解参数的含义,根据需...

  • 机器学习面试之LSTM

    在深度学习中,RNN已经成为标准组件,很多领域都要用到,LSTM则是最经典的RNN结构。所以面试时是必问的,最基本的面试题就是要说清楚LSTM的结构。本文试图对其结构进行浅显...

  • 120
    机器学习中牛顿法凸优化的通俗解释

    之前,我发过一篇文章,通俗地解释了梯度下降算法的数学原理和推导过程,推荐一看。链接如下: 简单的梯度下降算法,你真的懂了吗? 我们知道,梯度下降算法是利用梯度进行一阶优化,而...

  • 写的很好!

    机器学习中牛顿法凸优化的通俗解释

    之前,我发过一篇文章,通俗地解释了梯度下降算法的数学原理和推导过程,推荐一看。链接如下: 简单的梯度下降算法,你真的懂了吗? 我们知道,梯度下降算法是利用梯度进行一阶优化,而...

  • @milter 这点我明白呀,只是不清楚:
    这里把-H(P)=maxL,从而min-H(P)=minmaxL,-H(P)为什么不等于minL呢。。。L后面的约束全是等于0的呀:cry:

    机器学习面试之最大熵模型

    最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...

  • 我总结的:
    欠拟合是偏差大,方差小
    过拟合是偏差小,方差大

    机器学习面试之偏差方差

    在机器学习的面试中,能不能讲清楚偏差方差,经常被用来考察面试者的理论基础。偏差方差看似很简单,但真要彻底地说明白,却有一定难度。比如,为什么KNN算法在增大k时,偏差会变大,...

  • 机器学习面试之偏差方差

    在机器学习的面试中,能不能讲清楚偏差方差,经常被用来考察面试者的理论基础。偏差方差看似很简单,但真要彻底地说明白,却有一定难度。比如,为什么KNN算法在增大k时,偏差会变大,...

  • 感谢楼主,学到了很多!!
    又到了我提问的环节哈哈
    这个模型转换对偶问题的那里,与SVM不同是,SVM是不等式约束,maxL(P,w)等于原式(-H(P))我很清楚,我看这里2个约束都是等式约束,那若满足这个约束,那这里的L(P,w)后面的岂不是永远是0,那样不变成了maxL=原式,min也等于原式了?
    也就是说你的“屏幕快照 2018-07-22 下午8.11.02.png“最原始问题也可以2个min?

    机器学习面试之最大熵模型

    最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...

  • 还有个问题是等式约束求偏导的时候,有n+k个等式,分别求偏导=0,求出来就是极值,那原式是max或者min怎么区分呢?意思是不管原式是求max还是min,都是用的一个方法,那岂不是max=min了吗?求解答,感谢!!

    机器学习数学原理(5)——广泛拉格朗日乘子法

    机器学习数学原理(5)——广泛拉格朗日乘子法 这一篇博客针对的是有约束的凸优化问题,主要是为后面的最优间隔分类器以及其演化的SVM(支持向量机,Support Vector ...

  • 等式约束的情况下也能用对偶问题解决吧

    机器学习数学原理(5)——广泛拉格朗日乘子法

    机器学习数学原理(5)——广泛拉格朗日乘子法 这一篇博客针对的是有约束的凸优化问题,主要是为后面的最优间隔分类器以及其演化的SVM(支持向量机,Support Vector ...

  • 120
    机器学习面试之最大熵模型

    最大熵模型属于运用最大熵原理的多分类模型,这个模型在面试中经常会与逻辑回归一起问,比如,为什么说二者是类似的?要解答这个问题,需要对两个模型的原理都有清晰的理解,很多面试者虽...

  • @milter 多谢啦~~

    机器学习面试之归一化与标准化

    在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...

  • @milter 嗯嗯,这下理通了,很多博客那一个样本说均值方差,导致这里真难理解~

    机器学习面试之归一化与标准化

    在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...

  • 机器学习面试之归一化与标准化

    在机器学习的面试中,数据是否需要归一化和标准化是个常见问题。之所以常见,是因为它有很多暗坑,每个暗坑都可以考察应聘者机器学习基础是否扎实。 1、先说是什么,再说为什么 归一化...