前几节课着重介绍了机器能够学习的条件并做了详细的推导和解释。机器能够学习必须满足两个条件:
假设空间H的Size M是有限的,即当N足够大的时候,那么对于假设空间中任意一个假设g,
Eout≈Ein。 利用算法A从假设空间H中,挑选一个g,使
Ein(g)≈0,则 Eout≈0。
这两个条件,正好对应着test和trian两个过程。train的目的是使损失期望
正因为如此,上次课引入了break point,并推导出只要break point存在,则M有上界,一定存在
本次笔记主要介绍VC Dimension的概念。同时也是总结VC Dimension与
一、Definition of VC Dimension
首先,我们知道如果一个假设空间H有break point k,那么它的成长函数是有界的,它的上界称为Bound function。根据数学归纳法,Bound function也是有界的,且上界为N的k-1次方。从下面的表格可以看出,N的k-1次方比B(N,k)松弛很多。
则根据上一节课的推导,VC bound就可以转换为:
这样,不等式只与k和N相关了,一般情况下样本N足够大,所以我们只考虑k值。有如下结论:
若假设空间H有break point k,且N足够大,则根据VC bound理论,算法有良好的泛化能力
在假设空间中选择一个矩g,使
Ein≈0,则其在全集数据中的错误率会较低
下面介绍一个新的名词:VC Dimension。VC Dimension就是某假设集H能够shatter的最多inputs的个数,即最大完全正确的分类能力。(注意,只要存在一种分布的inputs能够正确分类也满足)。
shatter的英文意思是“粉碎”,也就是说对于inputs的所有情况都能列举出来。例如对N个输入,如果能够将2的N次方种情况都列出来,则称该N个输入能够被假设集H shatter。
根据之前break point的定义:假设集不能被shatter任何分布类型的inputs的最少个数。则VC Dimension等于break point的个数减一。
现在,我们回顾一下之前介绍的四种例子,它们对应的VC Dimension是多少:
二、VC Dimension of Perceptrons
三、Physical Intuition VC Dimension
上节公式中
四、Interpreting VC Dimension
下面,我们将更深入地探讨VC Dimension的意义。首先,把VC Bound重新写到这里:
根据之前的泛化不等式,如果
至此,已经推导出泛化误差
上述不等式的右边第二项称为模型复杂度,其模型复杂度与样本数量N、假设空间H(
通过该图可以得出如下结论:
dvc越大, Ein越小, Ω越大(复杂)。 dvc越小, Ein越大, Ω越小(简单)。 随着
dvc增大, Eout会先减小再增大。
所以,为了得到最小的
下面介绍一个概念:样本复杂度(Sample Complexity)。如果选定
通过计算得到N=29300,刚好满足
值得一提的是,VC Bound是比较宽松的,而如何收紧它却不是那么容易,这也是机器学习的一大难题。但是,令人欣慰的一点是,VC Bound基本上对所有模型的宽松程度是基本一致的,所以,不同模型之间还是可以横向比较。从而,VC Bound宽松对机器学习的可行性还是没有太大影响。
五、总结
本节课主要介绍了VC Dimension的概念就是最大的non-break point。然后,我们得到了Perceptrons在d维度下的VC Dimension是d+1。接着,我们在物理意义上,将
欢迎关注公众号学习交流~