无论在机器学习还是深度学习建模当中都可能会遇到两种最常见结果,一种叫过拟合(over-fitting )另外一种叫欠拟合(under-fitting)。而这两种情况都会导致模型性能偏低,那么这两种情况会有什么影响又因何而起呢?
影响:
过拟合:在训练数据上表现良好,在未知数据上表现差。
欠拟合:在训练数据和未知数据上表现都很差。
原因
过拟合:在深度学习中,样本数据的特征可以分为局部特征和全局特征,什么是全局特征呢?举个例子像胡萝卜的外形颜色、大体形状,也可以说成是对应数据集都具有的特征,而局部特征则是你用来训练的样本里的专有的特征,机器在学习过程中是无法区别局部特征和全局特征的,在机器在完成学习后,学习到了数据的全局特征,也可能学习到一部分局部特征,而学习到的局部特征比重越多,造成偏差越大,也举个胡萝卜例子,我在放胡萝卜的时候相机恰好将我手指的图像采集进去,这时模型不能识别胡萝卜,这时由于过分看重专有的特征,而忽略了全局特征。主次颠倒。
欠拟合:可以理解为学的太少。
还有没有影响深度学习的因素了?
最近就遇到一个,按常理来说,数据量适量的大,训练的模型越好,是的对于有着明确要求限制的东西来说,每一类都有明显的界限,那么此类问题还是较好解决的。然而好多问题并不存在明显界限,我在训练识别胡萝卜模型时,就发现数据量越大,模型效果并不是很好,数据量小的效果却很好。其实也不怪机器,人对这类问题都没有个明确定义,何况机器呢。我们所能作的就是尽可能的把这个分类界限画的更加明确,这样才能缓解这问题!