台湾大学林轩田机器学习基石课程学习笔记7 -- The VC Dimension

前几节课着重介绍了机器能够学习的条件并做了详细的推导和解释。机器能够学习必须满足两个条件:

1、假设空间H的Size M是有限的,即当N足够大的时候,那么对于假设空间中任意一个假设g,Eout≈Ein

2、利用算法A从假设空间H中,挑选一个g,使Ein(g)≈0,则Eout≈0

这两个条件,正好对应着test和trian两个过程。train的目的是使损失期望Ein(g)≈0;test的目的是使将算法用到新的样本时的损失期望也尽可能小,即Eout≈0。

正因为如此,上次课引入了break point,并推导出只要break point存在,则M有上界,一定存在Eout≈Ein。

本次笔记主要介绍VC Dimension的概念。同时也是总结VC Dimension与Ein(g)≈0,Eout≈0,Model Complexity Penalty(下面会讲到)的关系。

一、Definition of VC Dimension

首先,我们知道如果一个假设空间H有break point k,那么它的成长函数是有界的,它的上界称为Bound function。根据数学归纳法,Bound function也是有界的,且上界为Nk−1。从下面的表格可以看出,N(k−1)比B(N,k)松弛很多。

则根据上一节课的推导,VC bound就可以转换为:

这样,不等式只与k和N相关了,一般情况下样本N足够大,所以我们只考虑k值。有如下结论:

1、若假设空间H有break point k,且N足够大,则根据VC bound理论,算法有良好的泛化能力

2、在假设空间中选择一个矩g,使Ein≈0,则其在全集数据中的错误率会较低

下面介绍一个新的名词:VC Dimension。VC Dimension就是某假设集H能够shatter的最多inputs的个数,即最大完全正确的分类能力。(注意,只要存在一种分布的inputs能够正确分类也满足)。

shatter的英文意思是“粉碎”,也就是说对于inputs的所有情况都能列举出来。例如对N个输入,如果能够将2N种情况都列出来,则称该N个输入能够被假设集H shatter。

根据之前break point的定义:假设集不能被shatter任何分布类型的inputs的最少个数。则VC Dimension等于break point的个数减一。

现在,我们回顾一下之前介绍的四种例子,它们对应的VC Dimension是多少:

用dvc代替k,那么VC bound的问题也就转换为与dvc和N相关了。同时,如果一个假设集H的dvc确定了,则就能满足机器能够学习的第一个条件Eout≈Ein,与算法、样本数据分布和目标函数都没有关系。

二、VC Dimension of Perceptrons

回顾一下我们之前介绍的2D下的PLA算法,已知Perceptrons的k=4,即dvc=3。根据VC Bound理论,当N足够大的时候,Eout(g)≈Ein(g)。如果找到一个g,使Ein(g)≈0,那么就能证明PLA是可以学习的。

这是在2D情况下,那如果是多维的Perceptron,它对应的dvc又等于多少呢?

已知在1D Perceptron,dvc=2,在2D Perceptrons,dvc=3,那么我们有如下假设:dvc=d+1,其中d为维数。

要证明的话,只需分两步证明:

1、dvc≥d+1

2、dvc≤d+1

首先证明第一个不等式:dvc≥d+1。

在d维里,我们只要找到某一类的d+1个inputs可以被shatter的话,那么必然得到dvc≥d+1。所以,我们有意构造一个d维的矩阵X能够被shatter就行。X是d维的,有d+1个inputs,每个inputs加上第零个维度的常数项1,得到X的矩阵:

矩阵中,每一行代表一个inputs,每个inputs是d+1维的,共有d+1个inputs。这里构造的X很明显是可逆的。shatter的本质是假设空间H对X的所有情况的判断都是对的,即总能找到权重W,满足X∗W=y,W=X−1∗y。由于这里我们构造的矩阵X的逆矩阵存在,那么d维的所有inputs都能被shatter,也就证明了第一个不等式。

然后证明第二个不等式:dvc≤d+1。

在d维里,如果对于任何的d+2个inputs,一定不能被shatter,则不等式成立。我们构造一个任意的矩阵X,其包含d+2个inputs,该矩阵有d+1列,d+2行。这d+2个向量的某一列一定可以被另外d+1个向量线性表示,例如对于向量Xd+2,可表示为:

Xd+2=a1∗X1+a2∗X2+⋯+ad∗Xd

其中,假设a1>0,a2,⋯,ad<0.

那么如果X1是正类,X2,⋯,Xd均为负类,则存在W,得到如下表达式:

Xd+2∗W=a1∗X1∗W+a2∗X2∗W+⋯+ad∗Xd∗W>0

因为其中蓝色项大于0,代表正类;红色项小于0,代表负类。所有对于这种情况,Xd+2一定是正类,无法得到负类的情况。也就是说,d+2个inputs无法被shatter。证明完毕!

综上证明可得dvc=d+1。

三、Physical Intuition VC Dimension

上节公式中W又名features,即自由度。自由度是可以任意调节的,如同上图中的旋钮一样,可以调节。VC Dimension代表了假设空间的分类能力,即反映了H的自由度,产生dichotomy的数量,也就等于features的个数,但也不是绝对的。

例如,对2D Perceptrons,线性分类,dvc=3,则W={w0,w1,w2},也就是说只要3个features就可以进行学习,自由度为3。

介绍到这,我们发现M与dvc是成正比的,从而得到如下结论:

四、Interpreting VC Dimension

下面,我们将更深入地探讨VC Dimension的意义。首先,把VC Bound重新写到这里:

根据之前的泛化不等式,如果|Ein−Eout|>ϵ,即出现bad坏的情况的概率最大不超过δ。那么反过来,对于good好的情况发生的概率最小为1−δ,则对上述不等式进行重新推导:

ϵ表现了假设空间H的泛化能力,ϵ越小,泛化能力越大。

至此,已经推导出泛化误差Eout的边界,因为我们更关心其上界(Eout可能的最大值),即:

上述不等式的右边第二项称为模型复杂度,其模型复杂度与样本数量N、假设空间H(dvc)、ϵ有关。Eout由Ein共同决定。下面绘出Eout、model complexity、Ein随dvc变化的关系:

通过该图可以得出如下结论:

1、dvc越大,Ein越小,Ω越大(复杂)

2、dvc越小,Ein越大,Ω越小(简单)

3、随着dvc增大,Eout会先减小再增大

所以,为了得到最小的Eout,不能一味地增大dvc以减小Ein,因为Ein太小的时候,模型复杂度会增加,造成Eout变大。也就是说,选择合适的dvc,选择的features个数要合适。

下面介绍一个概念:样本复杂度(Sample Complexity)。如果选定dvc,样本数据D选择多少合适呢?通过下面一个例子可以帮助我们理解:

通过计算得到N=29300,刚好满足δ=0.1的条件。N大约是dvc的10000倍。这个数值太大了,实际中往往不需要这么多的样本数量,大概只需要dvc的10倍就够了。N的理论值之所以这么大是因为VC Bound 过于宽松了,我们得到的是一个比实际大得多的上界。

值得一提的是,VC Bound是比较宽松的,而如何收紧它却不是那么容易,这也是机器学习的一大难题。但是,令人欣慰的一点是,VC Bound基本上对所有模型的宽松程度是基本一致的,所以,不同模型之间还是可以横向比较。从而,VC Bound宽松对机器学习的可行性还是没有太大影响。

五、总结

本节课主要介绍了VC Dimension的概念就是最大的non-break point。然后,我们得到了Perceptrons在d维度下的VC Dimension是d+1。接着,我们在物理意义上,将dvc与自由度联系起来。最终得出结论dvc不能过大也不能过小。选取合适的值,才能让Eout足够小,使假设空间H具有良好的泛化能力。

原文CSDN博客地址:

台湾大学林轩田机器学习基石课程学习笔记7 -- The VC Dimension

注明:

文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容