3) Some Lower Bounds

防盗 https://www.cnblogs.com/setdong/p/17549887.html
来自 Chapter 3.4 of Foundations of machine learning

1. Lemma statement


首先理解定理在讲什么: 随机变量 α 的取值为 αα+ 且服从均匀分布. 分布 Dα 是与 α 的值有关的一个分布. 现在从分布 Dα 采样 m 个点, 记为 S={X1,...,Xm}. h 是一个函数, 它的输入是 S, 输出是 αα+, 也就是说 h 接收采样得到的 m 个样本点, 然后预测采样的分布是 Dα 还是 Dα+.

不等式 (3.39) 给出了 h 的错误率的下界, 这个下界受样本量 mαα+ 之间的差 ϵ 影响.

2. 证明

考虑有两个不均匀的硬币(0 表示反面, 1 表示正面):

  • 硬币 xA: Pr[xA=0]=α
  • 硬币 xB: Pr[xB=0]=α+

以相同概率随机地选一个硬币 x{xA,xB}, 投掷 m 次, 记录正反, 这样可以得到一个由 0, 1 组成的, 大小为 m 的序列, 也就是定理中的 S. 然后根据这个序列 S 预测一开始选择的硬币是哪个.

最好的决策方法是: f0:{0,1}m{xA,xB},f0=xA iif (当且仅当) N(S)<m/2, 其中 N(S)S 中 0 的个数. 接下来推算 f0 错误率的下界, 然后证明 f0 是最好的决策方法.

(1)error(f0)=PrSDxm[f0[S]x](2)=Pr[f0[S]=xAx=xB]+Pr[f0[S]=xBx=xA](3)=Pr[N(S)<m/2|x=xB]Pr[x=xB]+Pr[N(S)m/2|x=xA]Pr[x=xA](4)12Pr[N(S)<m/2|x=xB]

接下来需要用到两个 lower bound 定理, Binomial distribution tails 和 Normal distribution tails (忽略证明):

所以 Pr[N(S)<m/2|x=xB]=Pr[B(m,p)k], 其中 k=m/2(当 m 是偶数), k=m/2(当 m 是奇数), p=α, 利用 (D.8) 和 (D.19) 的结论就证明完毕了.

证明没有比 f0 更好的决策方法:
f:{0,1}m{xA,xB} 表示任意决策方法, FA 表示满足 f(S)=xA 的样本集S的集合, FB 表示其补集.

打公式太难了
上图推导的结论是: 任意 f 的错误率 f0 的错误率, 所以 f0 是最好的.
本文提到的所有的错误率都指的是: Generalization error/ true error/ risk

posted @   李斯赛特  阅读(33)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 【杂谈】分布式事务——高大上的无用知识?
点击右上角即可分享
微信分享提示