浅谈 Tail Bounds

前言

某人机智应数第三节课开始随机掉线了,然后只能回去看了一下发的参考书和课件,重新梳理一下老师讲的 Tail Bounds 之间的内在逻辑。所以这是一个涉及内容比较浅的梳理型博客。

首先上课反复提到了一个词 Tail Bounds,什么是 Tail Bounds 呢?如果了解过大数定律或者依靠一些直观感受,我们可以发现,如果将一大堆变量加起来考虑其和的概率密度图像,那么基本上会是在和的期望 μ 附近形成一个峰,峰向左右两边拖出两个尾巴。Tail Bounds 囊括了这样一些不等式:我们不关心接近峰的部分,而是关注远离峰的两个尾巴积起来概率的上界。即关注 Pr(|Xμ|c) 这种形式的概率拥有的一个上界。Tail Bounds 常常会分别关注 Pr(Xc)Pr(Xc),也就是分别估计上尾和下尾。

之后的课上举了几个应用 Tail Bounds 中的概率不等式的例子,其实就是在让我们体会为什么要关心 Tail Bounds。比如说我们估计出了某个随机算法,它的结果期望接近于某个数,我们就可以用 Tail Bounds 估计其远离这个数的概率到底有多小?是否在我们可接受的范围内?(比如,这两节课讲了一个随机图的最大团在 (2±ϵ)log2n 之间,而你可以直接使用贪心算法以极大概率得出一个 log2n±log2log2n 之间的团)。

接下来就是具体的几个 Tail Bounds。

Markov's & Chebyshev's Inequality

对于随机变量 X,记其期望 E(X)=μ,标准差 Var(X)=σ

我们首先关注一下上尾有没有什么粗糙的估计。

Markov 不等式首先必须满足 c>0。对于 Pr(Xc),我们定义由 X 决定的变量 Y={0(X<c)c(Xc)。可以发现 Pr(Xc)=E(Y)c,而 YX 又恒成立,所以 Pr(Xc)=E(Y)cE(X)c。也可以写成另一种形式 Pr{Xcμ}1c。这个界有点过于粗糙了。

在 Markov 不等式中,我们取 X=(Xμ)2,c=c2,得到了 Pr{(Xμ)2c2Var(X)}1c2,开根得到 Pr{|Xμ|cσ}1c2。这就是 Chebyshev 不等式。其在期望附近的估计效果相对来说更好一些。

那我们就会开始想,我们把 (Xμ)2 带入可以得到一个新的不等式。尝试将 |Xμ|kck 带入呢?我们就得到了 Pr{|Xμ|cνkk}1ck,其中 νk=E{|Xμ|k}

这个想法揭示了 Markov 不等式的强扩展性。虽然它本身比较粗糙,但是可以通过复合一些性质更好的函数来达到更好的近似效果。

考虑推导 Markov 不等式的方法。我们构造被 X 决定的 Y={0(X<c)1(Xc), 其期望恰是 Pr(Xc),比较其和原变量 X 就得到了之间期望的大小关系。

假设对于一个在 [c,+) 上递增的恒正函数 f,定义 Z=f(X)f(c)ZX<cZ 也恒正,在 Xc 时恒 1,所以 YZ 恒成立。而 E(Z)=E(f(X))f(c),我们就得到了广义 Chebyshev 不等式:

Pr(Xc)E(f(X))f(c)

注意与 Markov 不等式不同,这个不等式并没有要求 c>0,因为 f(X)f(c)1(Xc) 只需要用到 f 恒正和 [c,+) 递增的性质。

矩与矩生成函数

在查资料高次幂情况下的切比雪夫不等式的时候出现了一个很有意思的名词,矩,它们的定义是长成这样的:

k 阶中心矩 μk=E{(Xμ)k}k 阶绝对中心矩 νk=E{|Xμ|k}k 原点矩 E(Xk)k 阶标准矩 μkkσk

可以发现矩(Moment)这个名词指的是一个关于 X 的最高次项为 k 多项式的期望,OIer 可能看到这里会笑一笑,毕竟大家肯定见过什么将 k 次方期望拆成 0k 次方的期望然后维护一整个数组的计数题之类的东西。这告诉我们各种各样定义不同但阶数相同的矩,经过一定的变换本质上是非常相同的,基本描述了分布的同一个性质。统计学意义上一阶矩就是熟知的期望,描述了分布的中心,二阶(中心)矩描述了方差,也就是分布的离散程度。三阶四阶的标准矩分别称为偏度和峰度,似乎也描述了分布的一些几何性质。(我还没了解就是了)

如何用一个东西统一性的描述所有阶数矩的呢?考虑矩生成函数(Moment Generating Function,MGF) MX(t)=E(etX)

如果我们展开 ex 再用线性性拆开,就得到了 MX(t)=k=0+tkE(Xk)k!,也就是说,MGF 就是矩的 EGF。我们发现 k 阶原点矩就等于 MX(k)(0)。所以说,你可以预先计算好一些常见分布的矩生成函数,计算矩的时候就有了一种更加机械的方法。(吐槽:目前没发现矩生成函数有任何本质性的作用呢?仅仅是赋予了 etX 的期望一个名字吗?)

矩生成函数的思想告诉我们 eX 是一个神奇的函数,它实际上综合了 X 所有矩的性质。我们前面使用了 k 阶矩带入了 Markov 不等式,现在考虑使用 f(X)=etX 带入广义切比雪夫不等式,又会得到什么结果呢?

t>0 时,f(X)=etX 是一个关于 X 的恒正递增函数,我们有:

Pr(Xc)etcE(etX)=etcMX(t)

这是一个关于上尾的不等式,关于下尾,经过一些取反和取倒数同样可以得到:

t<0,Pr(Xc)etcMX(t)

这与后面讲的 Chernoff Bound 密切相关。

Chernoff's Bound

我们刚才在探究 Tail Bounds 的时候都是在研究单个无限制变量 X 的情况。然而正如我们在前言中所说,Tail Bounds 的多数应用场景是比较特化的,研究大数定律的作用下有峰值的概率分布(毕竟只有尾足够小的时候才关心尾到底有多小)。

如果关心 n 个独立随机变量的和,利用 Chebyshev 不等式可知其远离期望的某个尾 Pr{|Xμ|c}n+ 的时候是趋近于 0 的,这个结果被称为弱大数定律(注意弱大数定律要求独立但不要求同分布,比较有普遍性)。

在考虑多个变量的和的时候,有没有什么比 Chebyshev 不等式更紧的估计呢?

考虑这样一个场景,有 n 独立个服从伯努利分布的变量 Xi (即,Pr{Xi=1}=piPr{Xi=0}=1pi)。对于 X=i=1nXi,我们先来考虑估计上尾。

我们已经知道:

Pr{Xc}etcMX(t)

c=(1+δ)μ,其中 δ>0

Pr{X(1+δ)μ}et(1+δ)μMX(t)

对于独立的两个的变量 A,B,显然有 MA(t)MB(t)=MA+B(t),所以:

Pr{X(1+δ)μ}et(1+δ)μi=1nMXi(t)

对于伯努利分布,容易得到其 MGF MXi=pi(et1)+1,综合不等式 1+xex,得到:

Pr{X(1+δ)μ}et(1+δ)μi=1n[pi(et1)+1]et(1+δ)μi=1nepi(et1)=exp(t(1+δ)μ+i=1npi(et1))=exp{et1(1+δ)t}μ

(最后一步是因为 μ=i=1npi

我们总是期望这个界尽可能紧。于是我们考虑选择一个 t>0,最小化 exp 里面那堆式子。而求导可知对于 c>1 时有 argmint>0etct=lnc,所以代入 t=ln(1+δ) 我们有:

Pr{X(1+δ)μ}[eδ(1+δ)1+δ]μ

这个美妙的结果就是 Chernoff Bound 对上尾的估计了!

同样的,对于下尾我们有,δ(0,1)

Pr{X(1δ)μ}et(1δ)μi=1n[pi(et1)+1]exp{et1t(1δ)}μ

对于 t<0 的情况,由于 c(0,1),所以 argmint<0etct 依然是 lnc,代入 t=ln(1δ) 即有:

Pr{X(1δ)μ}[eδ(1δ)1δ]μ

综上所述,Chernoff's Bound 也即:

δ(0,+),Pr{X(1+δ)μ}[eδ(1+δ)1+δ]μδ(0,1),Pr{X(1δ)μ}[eδ(1δ)1δ]μ

需要注意 Chernoff's Bound 成立要求 X 是一堆伯努利分布的随机独立变量之和。

Corollaries of Chernoff's Bound

Chernoff Bound 的有用之处在于它关于尾部分布提出了随着远离中心指数递减的边界。我们刚刚推导的 Chernoff's Bound 形式上比较复杂,而实际上我们有一些形式更加简单的上界。

对于上尾我们可以证明其不超过 exp(δ2δ+2),下尾我们可以证明其不超过 exp(δ22)

x>0,上尾只需证:ln(x+1)2xx+2,下尾只需证 ln(x+1)xx22,前者可以求导,后者直接带拉格朗日余项的泰勒展开可证)

如果追求上下尾的形式相近,δ(0,1) 的时候上尾不超过 exp(δ23)

带入 Chernoff Bound 可以知道这样一个事实,c6μ 的时候,Pr{Xc} 的衰减已经超过了 2c 了。

(老师上课写的 Corollary 似乎关于 exp(δ23) 没写 δ(0,1),后面那个界写的是更粗糙的 c7μ?也有可能是我搞错了)

Hoeffding's Bound

Chernoff's Bound 只对伯努利分布的变量之和管用,那么有没有对于任意变量更加通用的形式呢?

考虑对于 n 个有界独立随机变量的 Xi(Xi[ai,bi]) 的平均值 X¯,记 μ¯=E(X¯),那么 c0
Hoeffding's Bound 给出了:

Pr{X¯μ¯+c}exp(2n2c2i=1n(biai)2)Pr{X¯μ¯c}exp(2n2c2i=1n(biai)2)

为了证明 Hoeffding's Bound,我们需要一个引理 Hoeffding's Lemma:

对于某有界随机变量 X(X[a,b]),如果 E(X)=0,那么 MX(t)et2(ba)28

上课老师把 Hoeffding's Lemma 的证明跳过去了,于是在网上查了一些证明,所有证明都用了凹凸性 & 泰勒展开,确实挺麻烦的,如果上课确实讲怎么也讲不完了。

(事后证明有点舍近求远了,老师发的那本 All of Statistics 后面就附了 Hoeffding 不等式的证明)

对于 a=b=0 的情况 Hoeffding's Lemma 显然成立,所以可以认为 a>0,b<0

由琴生不等式,有 etXbXbaeta+Xabaetb,两边取期望有:

MX(t)betaaetbba

为了 Hoeffding's Lemma,我们考虑证明 betaaetbbaet2(ba)28,两边取对数,即需证:

ln(betaaetb)ln(ba)t2(ba)28

f(t)=ln(betaaetb)ln(ba),那么:

f(0)=0f(0)=ab(etaetb)betaaetb|t=0=0f(t)=ab(ba)2e(a+b)t(betaaetb)2=betabetaaetbaetbbetaaetb(ba)2(ba)24

(最后一步是因为注意到了 betabetaaetb=1aetbbetaaetb,利用均值不等式二者乘积不超过 14

f(t) 进行带拉格朗日余项的泰勒展开,我们就得到了:f(t)=f(0)+f(0)t+12f(ξ)t2(ba)2t28,其中 ξ 介于 0t 之间。

综上所述,Hoeffding's Lemma 得证。

回到 Hoeffding's Bound,依旧是首先考虑上尾,我们知道:

Pr{X¯μ¯c}etcMX¯μ¯(t)=etci=1nMXiE(Xi)n(t)

(后面一步由期望的线性性直接拆开平均值定义得到)

XiE(Xi)n 的期望为 0 且有界 [aiE(Xi)n,biE(Xi)n],适用 Hoeffding's Lemma:

Pr{X¯μ¯c}etci=1nexp(t2(biai)28n2)=etc+wt2

其中 w=i=1n(biai)28n2。同样的,我们需要取一个合适的 t 使得界最紧,然而指数部分就是一个关于 t 的二次函数,所以最小值很容易得到:

Pr{X¯μ¯c}etc+wt2|t=c2w=ec24w=exp(2n2c2i=1n(biai))

Hoeffding's Bound 的上尾得证,下尾也同理。

posted @   yyyyxh  阅读(37)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示