机器学习09 模型性能,选择与泛化能力

到现在为止, 我们介绍了一些分类回归的模型, 当然还有许许多多的模型没有介绍, 同时我们到现在还没有对数据有过任何的加工,真实情况下,数据是需要清洗提炼,特征也是需要挖掘和选择的。这些我们暂时先不讨论。我们假设我们拿到的就是比较干净的数据,我们通过合适的模型, 实现了分类或回归, 那我们要如何判断模型的好坏呢?

模型性能的度量

首先我们需要去定义一些标准去衡量我们模型的好坏,比如同一个分类问题,我们拿LR也可以分类,SVM也可以分类,如何去判断模型的好坏,其实需要根据具体的使用场景。但首先,我们肯定需要一些指标去衡量,不同的场景,选择不同的指标即可。这篇会简单介绍一些常用的度量指标。

(1)错误率与精度

分类问题中,错误率就是指被误分类的概率,e = \frac{1}{N} \sum_{i=1}^N1(f(x_i)\neq y_i)

精度是指被正确分类的概率, 显然 p = 1 - e

(2)但如果我们想看分类为正的样本内,真实为正的概率, 那错误率与精度是不能满足需求的,这两个指标有它的局限性,这时候我们引入一个混淆矩阵


混淆矩阵, 摘自 周志华-机器学习

由此我们可以新定义一些指标:

精确率 P = \frac {TP}{TP+FP}, 预测为正的样本, 真实为正的概率。

召回率 R = \frac {TP}{TP+FN}, 多少正样本被预测为了正。

这两个指标往往是一对矛盾的指标,比如全部预测为正, 那召回率就会很高,但精确率就会比较低。除非是一些比较容易的任务。

F_1 = \frac {2PR} {P+R} = \frac {2 * TP} {样本数+TP-TN}

F_1综合考虑了精确率和召回率,往往作为用来评判模型的好坏的标准。

但是在一些场景下, 精确率和召回率侧重点是不一样的,有时候精确率重要一些,有时候召回率重要一些

这时候可以引入一个权重系数β

F_{\beta} = \frac {(1 + \beta^2)PR} {\beta^2P+R}

\beta 度量了召回率对精确率的相对重要性, \beta = 1的时候,就是F_1\beta > 1的时候, 召回率更重要, \beta < 1的时候, 精确率更重要。

(3)接下来是ROC与AUC, 正如之前所介绍的,很多模型是软分类,即给出相应的预测概率, 然后将预测概率和分类阈值(例如0.5)比较, 进行分类。

借助混淆矩阵,我们需要新定义两个指标, 分别是真正例率(TPR)和假正例率(FPR)

TPR = \frac{TP}{TP+FN}

FPR = \frac{FP}{TN+FP}

这个ROC曲线怎么理解呢,假设我们有N个样本,所有样本都对应着一个概率,将其从大到小排序 p_1,p_2,...,p_{N}。 我们将分类阈值从概率最大值慢慢往下降,

一开始分类阈值无穷大, 则TPR和FPR都是0, 就是原点,然后将分类阈值慢慢下调,先降到p1,再降到p2,依次往下降。每一次下降,都会有一个样本预测从负样本变成正样本,即每次都可以算出当前的TPR和FPR,就可以在图上相应的描点,最后当阈值为p_{N}的时候, 所有样本都是正的, TPR和FPR都是1了。把所有N+1个点连起来,就是ROC曲线了。ROC曲线的面积,就是AUC。可以拿AUC的大小作为模型评判的好坏。

ROC-AUC, 摘自 周志华-机器学习

过拟合与模型选择

我们始终要面临一个模型选择的问题,如果一味追求样本内的预测能力,所选的模型往往会比较复杂,这就是过拟合,过拟合的模型,对于测试集样本会有比较大的测试误差,是我们要避免的。接下来介绍两种模型选择的方法:正则化与交叉验证。

(1)正则化

这个方法我们在线性回归中做过介绍了, 就是给参数增加惩罚系数,惩罚系数越大, 模型就越趋于简单,越不会过拟合,但可能就会导致欠拟合了。

(2)交叉验证

简单的交叉验证:即将训练数据集按比例随机划分成两部分,训练集和测试集, 用训练集训练模型,再根据测试集的结果选择模型

k折交叉验证:讲训练数据切分为k份,每次拿k-1份学习模型,剩下的1份当做测试集, 可以重复进行k次,将每次的结果平均,选择最好的那个模型

留一交叉验证: k折交叉验证的极限情况, 分为N份数据,每次留一个样本作为测试集, 往往是数据比较少的时候用。如果数据多的时候使用,学习时间会很长。


模型的泛化能力

正如上面所讲,我们关心的是模型的泛化能力,样本内精确度很高不一定可信,因为可能是过拟合的, 我们希望模型在预测新样本时,能有很好的能力。

模型的泛化误差,可以分解为偏差,方差和噪声。

(1)偏差度量了学习算法的期望预测和真实结果的偏离程度,刻画了模型本身的拟合能力。例如一个二次项回归, 拿一次项拟合,拟合的误差始终会比较大。或者说模型加了太大的惩罚项,模型欠拟合。

(2)方差度量了同样大小的训练集变动导致的模型的变化,刻画了数据扰动的影响。例如一个二次项回归,拿更高次去拟合,在当前样本内可以拟合的很好,但换一个同分布的数据集,结果就会变得很差,因为过拟合了。

(3)噪声刻画了泛化误差的下界,这个比较好理解。

所以要取得好的泛化性能, 需要较小的偏差与较小的方差。(欠拟合是太大的偏差,过拟合是太大的方差)

下一篇开始,会介绍集成学习, 将很多基模型组合成一个模型,可以很好的提升模型的性能。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,242评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,769评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,484评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,133评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,007评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,080评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,496评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,190评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,464评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,549评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,330评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,205评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,567评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,889评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,160评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,475评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,650评论 2 335