3) Some Lower Bounds

发布时间 2023-07-13 11:18:44作者: 李斯赛特

防盗 https://www.cnblogs.com/setdong/p/17549887.html
来自 Chapter 3.4 of Foundations of machine learning

1. Lemma statement


首先理解定理在讲什么: 随机变量 \(\alpha\) 的取值为 \(\alpha_{-}\)\(\alpha_{+}\) 且服从均匀分布. 分布 \(D_{\alpha}\) 是与 \(\alpha\) 的值有关的一个分布. 现在从分布 \(D_{\alpha}\) 采样 \(m\) 个点, 记为 \(S=\{X_1,...,X_m\}\). \(h\) 是一个函数, 它的输入是 \(S\), 输出是 \(\alpha_{-}\)\(\alpha_{+}\), 也就是说 \(h\) 接收采样得到的 \(m\) 个样本点, 然后预测采样的分布是 \(D_{\alpha_-}\) 还是 \(D_{\alpha_+}\).

不等式 (3.39) 给出了 \(h\) 的错误率的下界, 这个下界受样本量 \(m\)\(\alpha_{-}\)\(\alpha_{+}\) 之间的差 \(\epsilon\) 影响.

2. 证明

考虑有两个不均匀的硬币(0 表示反面, 1 表示正面):

  • 硬币 \(x_A\): \(\Pr[x_A=0]=\alpha_-\)
  • 硬币 \(x_B\): \(\Pr[x_B=0]=\alpha_+\)

以相同概率随机地选一个硬币 \(x\in\{x_A, x_B\}\), 投掷 \(m\) 次, 记录正反, 这样可以得到一个由 0, 1 组成的, 大小为 \(m\) 的序列, 也就是定理中的 \(S\). 然后根据这个序列 \(S\) 预测一开始选择的硬币是哪个.

最好的决策方法是: \(f_0: \{0,1\}^m \rightarrow \{x_A, x_B\}, f_0=x_A\) iif (当且仅当) \(N(S)< m/2\), 其中 \(N(S)\)\(S\) 中 0 的个数. 接下来推算 \(f_0\) 错误率的下界, 然后证明 \(f_0\) 是最好的决策方法.

\[\begin{align} error(f_0)&=\Pr_{S\sim D_x^m}[f_0[S]\neq x]\\ &=\Pr[f_0[S] = x_A \and x=x_B]+\Pr[f_0[S] = x_B \and x=x_A]\\ &=\Pr[N(S)< m/2|x=x_B] \Pr[ x=x_B]+\Pr[N(S)\geq m/2|x=x_A] \Pr[ x=x_A]\\ &\geq \frac{1}{2}\Pr[N(S)< m/2|x=x_B] \end{align} \]

接下来需要用到两个 lower bound 定理, Binomial distribution tails 和 Normal distribution tails (忽略证明):

所以 \(\frac{1}{2}\Pr[N(S)< m/2|x=x_B]=\Pr[B(m,p)\geq k]\), 其中 \(k=m/2\)(当 \(m\) 是偶数), \(k=\left \lceil m \right \rceil/2\)(当 \(m\) 是奇数), \(p=\alpha_-\), 利用 (D.8) 和 (D.19) 的结论就证明完毕了.

证明没有比 \(f_0\) 更好的决策方法:
\(f:\{0,1\}^m\rightarrow \{x_A, x_B\}\) 表示任意决策方法, \(F_A\) 表示满足 \(f(S)=x_A\) 的样本集\(S\)的集合, \(F_B\) 表示其补集.

打公式太难了
上图推导的结论是: 任意 \(f\) 的错误率 \(\geq\) \(f_0\) 的错误率, 所以 \(f_0\) 是最好的.
本文提到的所有的错误率都指的是: Generalization error/ true error/ risk