240 投稿
收录了53篇文章 · 5人关注
  • Resize,w 360,h 240
    HMM基础

    一、HMM建模 HMM参数: 二、HMM的3个假设 (一)马尔科夫假设 (二)观测独立性假设 (三)不变性假设 转移矩阵不随时间变化。 三、HM...

  • Resize,w 360,h 240
    GMM基础

    一、单成分单变量高斯模型 二、单成分多变量高斯模型 若协方差矩阵为对角矩阵且对角线上值相等,两变量高斯分布的等值线为圆形。 若协方差矩阵为对角矩...

  • Resize,w 360,h 240
    ML&MLDS笔记:偏差 vs 方差

    error来自哪?来自于偏差Bias和方差Variance。 就如打靶时瞄准一个点,打出的点分布在该点周围。那么,与实际靶心的距离就是偏差Bia...

  • Decision Tree、Random Forest、AdaBoost、GBDT

    Decision Tree 基本思想在于每次分裂节点时选取一个特征使得划分后得到的数据集尽可能纯。 划分标准 信息增益(Information ...

  • 正则化:L0 vs L1 vs L2

    为什么正则化可以缓解过拟合?过拟合时,拟合函数的系数往往非常大。过大的权重会导致模型过多地学习到某些数据的个性特征,从而导致过拟合。更少的参数(...

  • 处理不平衡数据的基本方法

    使用正确的评价指标如ROC-AUC。 重新采样训练集欠采样常常当数据量足够多时使用这个方法。通过在多数类样本中随机选择和少数类样本相同数量的样本...

  • 常用的评价指标:accuracy、precision、recall、f1-score、ROC-AUC、PR-AUC

    准确率(Accuracy)accuracy是最常见也是最基本的评价指标。但是,在二分类且正负样本不平衡的情况下,尤其是对于较少数样本类感兴趣时,...

  • Bagging vs Boosting vs Stacking

    Bagging用于减小方差。使用训练数据的不同随机子集(大小常等于训练数据,采用不放回的方式进行抽取)来训练每个base model,最后对每个...

  • Naive RNN vs LSTM vs GRU、attention基础

    一、Recurrent Neural Network 二、Naive RNN Naive RNN更新参数时易出现梯度消失/爆炸的问题。 三、LS...

  • Resize,w 360,h 240
    机器学习技法笔记:16 Finale

    Roadmap Feature Exploitation Techniques Error Optimization Techniques Ov...

专题公告

Machine Learning&Deep Learning相关总结