![快乐机器学习](https://wfqqreader-1252317822.image.myqcloud.com/cover/216/32375216/b_32375216.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
技术附录
A.NFL定理
定义A为算法,xin为样本内数据,xout为样本外数据(N个),c为目标函数,h为假设函数。在考虑所有c的情况下,算法A在样本外的误差期望如下所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_1.jpg?sign=1739379246-AIOzcSPrKW8WQMLvLnQeQF6gFwOBX80e-0-47674343594229efdf5d31f611444f9f)
在第4行中,当c为均匀分布时,c和h的预测结果有一半不一致。那么c一共有2N个预测结果,一半就是2N-1。上述结果与算法A无关,可见“胡乱猜”的算法和高级算法的期望误差或者期望性能相同。
B.霍夫丁不等式
霍夫丁不等式(Hoeffding's Inequality)是根据切诺夫上界(Chernoff Bound)和霍夫丁引理(Hoeffding's Lemma)证明出来的,而切诺夫上界由马尔可夫不等式(Markov's Inequality)证明出来的。
它们的关系如右图所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_2.jpg?sign=1739379246-mAydP3P7YYghZUIanJrxq73AFdDic5jp-0-07349ce676acfd2d205d1b2203cea089)
证明霍夫丁不等式
马尔可夫不等式、切诺夫上界、霍夫丁引理和霍夫丁不等式的具体证明如下表所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_3.jpg?sign=1739379246-uvMLIaL2g5Nzs88BI2qO8Ug0uu7Ku4K9-0-194050b7cccb2b1f26edd7c0c6a087da)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_63_1.jpg?sign=1739379246-QZUhNQVnuSrXytVkQTPZu3Y4j6QeuPtz-0-12066ba08fa0d9d96cf75d5fd94684b4)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_1.jpg?sign=1739379246-in0BEU2knRg2KFsdMsrjE7yoyKFsOX3X-0-92860c45f9ed86b4155579eb6fb41eb5)
当Zi服从伯努利分布时,那么a=0,b=1,将上式和机器学习结合得到
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_2.jpg?sign=1739379246-XSXCYi9stUSoZZSslIG7EUTxashBO9Cx-0-a9704969c1e0c2e8b2e0829a33af4bf2)
[1]NFL定理证明见本章附录A。
[2]霍夫丁不等式证明见本章附录B。
[3]增长函数的上界推导比较烦琐,见本章参考资料[1]。