编辑
2025-04-06
机器学习
0

没有免费午餐定理是说:对于完全随机的问题,所有算法的平均性能相同。这意味着如果一个算法在某些问题上工作得较好,那么一定存在一些其他的问题使得该算法的性能较差。因此脱离具体的问题而空谈算法好坏没有意义

假定样本空间χ\chi与假设空间HH离散,现有一个算法LL,设其经过训练数据XX的训练后得到假设空间中的一个函数hh的概率为

P(hX,L)P(h|X,L)

再设真实的函数为ff,那么误差就是

E(LX,f)=hxχXP(x)I[h(x)f(x)]P(hX,L)E(L|X,f)=\sum_h\sum_{x\in \chi-X}P(x)\mathbb{I}[h(x)\neq f(x)]P(h|X,L)

其中I\mathbb{I}为示性函数

I(x)={1x=true0x=false\mathbb{I}(x)= \begin{cases} 1&x=true\\ 0&x=false \end{cases}

考察二分类问题,可能的真实目标函数空间是

{0,1}χ\{0,1\}^{|\chi|}

意为对于所有样本,都有不同的函数将它们映射到0或是1。假设所有的ff服从均匀分布,那么对于所有可能的ff误差之和为

fE(LX,f)=fhxχXP(x)I[h(x)f(x)]P(hX,L)\sum_fE(L|X,f)=\sum_f\sum_h\sum_{x\in \chi-X}P(x)\mathbb{I}[h(x)\neq f(x)]P(h|X,L)

调整求和顺序

fE(LX,f)=xχXP(x)hP(hX,L)fI[h(x)f(x)]\sum_fE(L|X,f)=\sum_{x\in \chi-X}P(x)\sum_hP(h|X,L)\sum_f\mathbb{I}[h(x)\neq f(x)]

由于ff服从均匀分布,所以对一个样本而言有一半分类正确另一半分类不正确。又因为总的函数数目为2χ2^{|\chi|},所以

fE(LX,f)=122χxχXP(x)hP(hX,L)\sum_fE(L|X,f)=\dfrac12\cdot2^{|\chi|}\sum_{x\in \chi-X}P(x)\sum_hP(h|X,L)

对所有的hh其生成概率之和应当是归一化的,所以

fE(LX,f)=2χ1xχXP(x)\sum_fE(L|X,f)=2^{|\chi|-1}\sum_{x\in \chi-X}P(x)

所以得到分类错误与算法LL是无关的

本文作者:GBwater

本文链接:

版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!