『数学记录』概率导论学习笔记(二):随机变量

  本文为Dimitri P.Bertsekas与John N. Tsitsiklis所著的《概率导论》的学习笔记。

  由于时间紧迫,过于详细的举例说明会导致自己的学习效率较低,于是本文将会比上一篇略去非常多不必要的举例与解释,同时加入很多名词的英文单词,利于以后更好地对外文著作及论文的学习。

Part1 离散随机变量(chapter 2)

  本文重点讨论的对象为 随机变量(random variable) ,它对许多概率模型的实验结果数值化起到重要作用。从数学上简要解释的话,就是 随机变量是实验结果的实值函数 。在这一部分,我们所讨论的随机变量是 离散(discrete) 的,即讨论取值有限或可数无限的情况。

1.1 概率质量函数及常见离散随机变量

  随机变量给每一个值都分配了一个概率,对于离散随机变量我们将这种对应关系称为 分布列/概率质量函数(probability mass function) 。一个随机变量 X 的概率质量函数 pX 由下面的式子给出:

pX(x)=P({X=x})

其中 {X=x} 表示事件 X 取值为 x 。在之后的内容中将会约定俗成地使用 大写字母表示随机变量,小写字母表示实数

  既然概率质量函数是一个概率律,那么自然它会满足 xpX({X=x})=1

伯努利随机变量

  简单来说, 伯努利(Bernoulli)随机变量 就是“抛硬币出现正面”,只不过正反面朝上的概率不一定相等,而是 p1p 。伯努利随机变量在硬币正面朝上时取值为 1 ,那么它的概率质量函数是这样的:

pX(k)={p,k=11p,k=0

显然满足和为 1

二项随机变量

  简单来说, 二项(binomial)随机变量 就是“抛 n 次硬币出现正面次数”。它的概率质量函数是我们之前所讲的二项分布,参数为 np

pX(k)=P({X=k})=(nk)pk(1p)nk,k=0,1,,n

之前我们已经证明过它满足和为 1 。它的概率质量函数图像是这样的( n=300,p=0.1 ):

它的图像有这样的规律: n 越大图像将更尖, p 越大越靠右,反之靠左。注意图像中空白的位置概率质量函数并非为 0 ,而是值太小所以不显示。

几何随机变量

  简单来说, 几何(Geometric)随机变量 就是“一直抛硬币直到抛出正面所需次数”。它的概率质量函数也十分地显然:

pX(k)=(1p)k1p,k=1,2,

可以证明它的和为 1

k=1pX(k)=k=1(1p)k1p=pk=0(1p)k=p11(1p)=1

它的概率质量函数图像是这样的( p=0.4 ):

结合概率质量函数定义式不难发现 p 越小其图像将越平缓,否则将会更陡。

泊松随机变量

  泊松(Poisson) 可能并不那么的直观,因为它来自于大名鼎鼎的 泊松过程 。它的概率质量函数由下式给出:

pX(k)=eλλkk!,k=0,1,

同样可以证明它的和为 1

k=0eλλkk!=eλ(k=0λkk!)=eλeλ=1

下面分别是它的两个概率质量函数图像( λ=0.5 ):

( λ=3 ):

λ1 时,概率质量函数单调递减;当 λ>1 时,概率质量函数会随 k 值先递增后递减。

  它的一个应用是去估计二项随机变量概率质量函数。在 λ=np 这一合适的值下,泊松随机变量概率质量函数是二项随机变量概率质量函数一个非常好的逼近。其原因也不难理解,因为当 n 的二项随机变量概率质量函数其实就是泊松随机变量概率质量函数:

  令 X 为参数为 n,p=λn 的二项随机变量。当 n 时首先有

(ni)ni=n!(ni)!i!ni1i!(n!(ni)!将趋近于ni)(1λn)n=(1+1x)λx(nλxx)eλ(x(1+1x)xe)

  然后

P(X=i)=(ni)(λn)i(1λn)ni=(ni)λini(1λn)nieλλii!

由此推导出的就是泊松随机变量的概率质量函数。从推导过程能够得出,当参数 n 很大, p 很小,使 λ=np 不过大时,泊松分布就会有很好的逼近。所以当二项式系数处理起来很麻烦时,可以尝试使用泊松随机变量的分布来计算。

1.2 离散随机变量的函数、期望、矩、方差

离散随机变量的函数

  设 g 为任意函数,那么 g(X) 必然是一个离散随机变量:因为一个函数不可能把随机变量取值集合从可数集变为不可数集,说明 g(X) 是离散的;并且 g(X) 仍是样本空间到实数域的映射,说明 g(X) 仍是随机变量。

  在变换的同时,概率质量函数也会同时发生改变。设 Y=g(X) ,则其概率质量函数可由下式给出:

pY(y)={x|g(x)=y}pX(x)

  下面是随机变量三个非常重要的数。

期望与矩

  对于一个随机变量,我们在许多时候需要一个简洁的方式去了解它的取值特点。由此就引出了 期望(也称期望值、均值)(expectation) 这一概念。一个离散随机变量的期望等于其所有取值对于取值概率的加权平均:

E[X]=xpX(x)

矩(moment) 这一概念来自于物理,它的定义基于期望。矩一般用 μ 表示, n 阶(n-th)矩的定义如下:

μX(n)=E[Xn]

方差

  对于一个随机变量,只是知道它取值的加权平均远远不够。取值的离散程度也是随机变量一个非常重要的指标。想要表示数据的离散程度,取值与期望的差值是必须的,但为了避免在定义式中出现绝对值,于是使用平方来消去,首先定义了 方差(variance) var(X)

var(X)=E[(XE[X])2]

而更为实用的 标准差(standard deviation) σ 则是由下式定义:

σX=var(X)

标准差更实用,是因为方差在实际应用领域中会有量纲不同这一重大缺陷,而标准差的量纲则与随机变量的一致。

  计算方差最暴力的方法是先计算出 (XE[X])2 的分布列,这是一个关于随机变量 X 的函数,可以用前面的方法去计算。
  但是这样计算实在太麻烦了,这里便引出了随机变量函数期望一个更为简便的公式:

E[g(X)]=xg(x)pX(x)

这个公式也不难证明:

E[g(X)]=E[Y]=yypY(y)=yy{x|g(x)=y}pX(x)=y{x|g(x)=y}ypX(x)=y{x|g(x)=y}g(x)pX(x)=xg(x)pX(x)

这个公式一来是可以很方便地计算 n 阶矩:

E[Xn]=xxnpX(x)

这个公式二来自然也适合方差:

var(X)=E[(XE[X])2]=x(xE[X])2pX(x)

这个公式还可以进一步化简:

var(X)=x(xE[X])2pX(x)=x(x22xE[X]+(E[X])2)pX(x)=xx2pX(x)2E[X]xxpX(x)+(E[X])2xpX(x)=E[X2]2(E[X])2+(E[X])2=E[X2](E[X])2

  特别地,当 g 是一次函数时,期望和方差会有特殊的结果。令 Y=aX+b ,那么它的期望将会是:

E[Y]=x(ax+b)pX(x)=axxpX(x)+bxpX(x)=aE[X]+b

它的方差将会是:

var(Y)=x(ax+bE[Y])2pX(x)=x(ax+baE[X]b)2pX(x)=a2x(xE[X])2pX(x)=a2var(X)

特别需要注意的是,除了一次函数的情形外一般情况下 E[g(X)]g(E[X])var(Y)a2var(X) ,不要想当然地使用。

  接下来我们讨论一些常见随机变量的均值和方差。

离散均匀随机变量

  这种函数的分布列是这样的:

pX(k)={1ba+1,k=a,a+1,,b0,

它的均值很好计算,显然是 E[X]=a+b2 。难以计算的是它的方差,更准确的说是 E[X2] 。由于函数图像的平移并不会对方差产生影响,因此我们可以将 a 先钦定为 1 来简化计算:

E[X2]=1xbx2pX(x)=1b16b(b+1)(2b+1)=16(2b2+3b+1)

var(X)=E[X2](E[X])2=16(2b2+3b+1)(b+12)2=b2112

再将 b 替换回 ba+1 即可得到离散均匀变量方差的公式:

var(X)=(ba+1)2112=(ba)(ba+2)12

泊松随机变量

  泊松随机变量的期望可由下式得到:

E[X]=k=0keλλkk!=k=1keλλkk!=λk=1eλλk1(k1)!=λm=0eλλmm!(m=k1)=λ()

  想要计算泊松随机变量的方差,一样是要先算出 E[X2] 的:

E[X2]=k=1k2eλλkk!=λk=1keλλk1(k1)!=λm=0(m+1)eλλmm!=λ(E[Y]+1)=λ(λ+1)

所以泊松随机变量的方差就是:

var(X)=E[X2](E[X])2=λ(λ+1)λ2=λ

可以发现一个十分有趣但感觉没什么用的性质,那就是泊松随机变量的期望和方差都是 λ

伯努利随机变量

  对于 pX(1)=p 的伯努利随机变量 X ,不难得到 E[X]=p 。那么应用方差的计算公式就会有:

var(X)=E[X2](E[X])2=p(1p)

二项随机变量

  我们知道,二项随机变量相当于 n 个独立同分布的伯努利随机变量的加和,那么通过后面1.3节会提到的期望的线性性得到二项随机变量的期望是伯努利随机变量的 n 倍,即 E[X]=np 。这是我们根据二项随机变量的性质得到的结论,自然也有更为严谨的证法:

E[X]=0knkpX(k)=0knk(nk)pk(1p)nk=1knk(nk)pk(1p)nk=1knkn!k!(nk)!pk(1p)nk=np1kn(n1)!(k1)!(nk)!pk1(1p)nk=np0mzz!m!(zm)!pm(1p)zm(mk1,zn1)=np(1)

  方差的证明还是要先求得 E[X2] ,它的求解与 E[X] 类似:

E[X2]=0knk2pX(k)=0knk2(nk)pk(1p)nk=0knk(k1)(nk)pk(1p)nk+0knk(nk)pk(1p)nk=2knk(k1)n!k!(nk)!pk(1p)nk+np=n(n1)p22kn(n2)!(k2)!(nk)!pk2(1p)nk+np=n(n1)p20mzz!m!(zm)!pm(1p)zm+np(mk2,zn2)=n(n1)p2+np

那么方差就很好求了:

var(X)=E[X2](E[X])2=np(1p)

  其实对于方差也有一种很方便的求法,利用1.5会提到的方差的线性性可以得到二项随机变量的方差同样是伯努利随机变量的 n 倍。

几何随机变量

  这部分需要利用1.4节的工具,因此会在1.4节详细证明。

1.3 多个随机变量的联合概率质量函数

  以上关于离散随机变量的理论都是可以推广到多个随机变量上的,下面会简易地从概率质量函数与期望简易地推导二元形式,多元的形式均可通过数学归纳法拓展得到。定义两个随机变量的 联合(joint)概率质量函数 pX,Y(x,y)=P(X=x,Y=y) 。这里 P(X=x,Y=y) 的含义是 P({X=x}{Y=y}) ,这里为了方便书写写成前面的形式。
  联合概率质量函数可以确定任何由 X,Y 刻画的事件,也能计算 XY 的概率质量函数:

pX(x)=ypX,Y(x,y),pY(y)=xpX,Y(x,y)

其中计算 pX(x) 的推导如下( pY(y) 类似):

pX(x)=P(X=x)=yP(X=x,Y=y)=ypX,Y(x,y)

为了方便区分,在有联合概率质量函数的场合,我们称 pX(x),pY(y)边缘(marginal)概率质量函数

  在解决问题时,往往会出现多个随机变量的函数。对于 Z=g(X,Y) ,它的概率质量函数可由下式计算:

pZ(z)={(x,y)|g(x,y)=z}pX,Y(x,y)

知道了 Z 的概率质量函数,那么期望也是能够得知的:

E[Z]=xyg(x,y)pX,Y(x,y)

公式的推导与单随机变量的函数类似。
  同样地,线性函数的期望对于多个变量的函数仍然有很好的性质。对于 **任意的X,Y ** :

E[aX+BY+c]=aE[X]+bE[Y]+c

其中 a,b,c 为任意常数。这被称为 期望的线性性 ,在能为许多期望计算提供便利。这个性质看起来显然,但严格的证明仍是必须的:

E[aX+bY+c]=E[aX+bY]+c=xy(ax+by)P({X=x,Y=y})+c=axxyP({X=x,Y=y})+byyxP({X=x,Y=y})=axxP({X=x})+byyP({Y=y})+c=aE[X]+bE[Y]+c

1.4 条件

随机变量条件概率质量函数

  对于满足 P(A)>0 的事件 A ,在它发生的条件下随机变量 X条件概率质量函数 定义为:

pX|A(x)=P(X=x|A)=P({X=x}A)P(A)

由于所有的事件 {X=x} 构成样本空间的分割,因此由全概率公式有:

P(A)=xP({X=x}A)

联立上面的两个式子可以得到:

xpX|A(x)=1

所以 pX|A 是一个合格的概率质量函数。

  条件下的概率质量函数相关计算实际上与一般的概率质量函数无区别。如果所有的事件 Ai 构成样本空间的一个分割,并且对于所有的 Ai 都有 P(Ai)>0 ,那么由全概率公式可以得到:

pX(x)=iP({X=x}Ai)=iP(Ai)pX|Ai(x)

当然我们还可以进一步引入更多的事件,以单个事件 B 为例:

pX|B(x)=iP(Ai|B)pX|AiB(x)

  当然有时候事件会牵扯到其他的随机变量,这个时候就需要对关于随机变量条件概率质量函数作出简洁的定义:

pX|Y(x|y)=P({X=x}|{Y=y})

当然通过它来计算概率质量函数也是一样的,只需将前面式子中的事件替换成 {Y=y} 即可:

pX(x)=ypY(y)pX|Y(x|y)

由联合概率质量函数的定义也可以得到其与条件概率质量函数之间的关系:

pX,Y(x,y)=P({X=x}{Y=y})=pY(y)P({X=x}{Y=y})P({Y=y})=pY(y)pX|Y(x|y)

随机变量条件期望

  同样地,只是将本来的事件替换为了随机变量,本质还是一样的。这里给出比较重要的 全期望定理

 E[X]=i=1nP(Ai)E[X|Ai]E[X|B]=i=1P(Ai|B)E[X|AiB](BP(AiB)>0)E[X]=ypY(y)E[X|Y=y]

这三个等价地形式都可以称为期望定理。现在来验证第一个公式:

E[X]=xxpX(x)=xxi=1nP(Ai)px|Ai(x|Ai)()=i=1nP(Ai)xxpx|Ai(x|Ai)=i=1nP(Ai)E[X|Ai]

其他两个公式的验证是类似的。

  在了解了这一点后,我们就可以尝试求解集合随机变量的期望和方差:

E[X]=k=1k(1p)k1p

这并不是一个特别好算的无穷级数,因此我们需要做出一些简化。考虑到几何随机变量的意义,不难得到这两个式子:

E[X|{X=1}]=1,E[X|{X>1}]=1+E[X]

由此就可以用全期望定理:

E[X]=P({X=1})E[X|{X=1}]+P({X>1})E[X|{X>1}]=p+(1p)(1+E[X])

这样的一个方程显然就非常好处理,我们可以解得:

E[X]=1p

如法炮制我们可以解 E[X2]

E[X2]=P({X=1})E[X2|{X=1}]+P({X>1})E[X2|{X>1}]=p+(1p)(E[(1+X)2])=p+(1p)(1+2E[X]+E[X2])=p+(1p)(1+2p+E[X2])

最后可以得到 E[X2]=2pp2 ,那么就可以得到方差:

var(X)=E[X2](E[X])2=1pp2

1.5 独立性

随机变量的独立性

  类似于上一节,随机变量的引入只是将事件替换为于随机变量值相关的事件,并无本质区别,这里不做过多说明。对于随机变量之间的独立性,可以用下面的表述:

xypX,Y(x,y)=pX(x)pY(y)

我们可以通过这一点推出一个进一步的推论:

E[XY]=xyxypX,Y(x,y)=xyxypX(x)pY(y)=xxpX(x)yypY(y)=E[X]E[Y]

方差的线性性

  与期望类似,方差也具有线性性。但是方差的线性性需要满足一个条件: X,Y 相互独立 。这也是将方差的线性性放到这里的原因,因为不独立的话会涉及协方差,这并不在本章的讨论范围内。它的证明并不麻烦:

var(X+Y)=E[(X+Y)2](E[X+Y])2=E[X2+Y2+2XY](E[X]+E[Y])2=E[X2]+E[Y2]+2E[XY](E[X])2(E[Y])22E[X]E[Y]=E[X2](E[X])2+E[Y2](E[Y])2+2E[X][Y]2E[X]E[Y]=var(X)+var(Y)

由此得证。

参考资料

posted @   Black_Crow  阅读(118)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
点击右上角即可分享
微信分享提示