没有免费午餐定理是说:对于完全随机的问题,所有算法的平均性能相同。这意味着如果一个算法在某些问题上工作得较好,那么一定存在一些其他的问题使得该算法的性能较差。因此脱离具体的问题而空谈算法好坏没有意义
假定样本空间χ与假设空间H离散,现有一个算法L,设其经过训练数据X的训练后得到假设空间中的一个函数h的概率为
再设真实的函数为f,那么误差就是
E(L∣X,f)=h∑x∈χ−X∑P(x)I[h(x)=f(x)]P(h∣X,L)
其中I为示性函数
I(x)={10x=truex=false
考察二分类问题,可能的真实目标函数空间是
{0,1}∣χ∣
意为对于所有样本,都有不同的函数将它们映射到0或是1。假设所有的f服从均匀分布,那么对于所有可能的f误差之和为
f∑E(L∣X,f)=f∑h∑x∈χ−X∑P(x)I[h(x)=f(x)]P(h∣X,L)
调整求和顺序
f∑E(L∣X,f)=x∈χ−X∑P(x)h∑P(h∣X,L)f∑I[h(x)=f(x)]
由于f服从均匀分布,所以对一个样本而言有一半分类正确另一半分类不正确。又因为总的函数数目为2∣χ∣,所以
f∑E(L∣X,f)=21⋅2∣χ∣x∈χ−X∑P(x)h∑P(h∣X,L)
对所有的h其生成概率之和应当是归一化的,所以
f∑E(L∣X,f)=2∣χ∣−1x∈χ−X∑P(x)
所以得到分类错误与算法L是无关的
本文作者:GBwater
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA
许可协议。转载请注明出处!