概率期望

未完待续。

概率

定义

  • 基本事件:实验的可能结果。
  • 样本空间:基本事件的集合。
  • 事件:不严格地说,是样本空间的一个子集。
  • 样本空间 S 上的概率分布 PS 的事件到实数的映射。

公式

  • P()=0,P(S)=1
  • 若事件 A1,A2,,An 两两互斥,则 P(i=1nAi)=i=1nP(Ai)
  • P(AB)=P(A)+P(B)P(AB)P(A)+P(B)

离散概率分布

如果一个概率分布定义在有限或无限可数的样本空间上,则该概率分布是离散的。什么是无限可数呢?一个集合 A 是无限可数的,当且仅当它与 \N 具有相同的基数。

连续均匀概率分布

连续均匀概率分布定义在实数闭区间 [a,b] 上,其中 a<b

对于闭区间 [c,d]acdb,有:

P([c,d])=dcba

由此可以得出,P([x,x])=0,x[a,b]P([c,d])=P([c,c])+P((c,d))+P([d,d])=P((c,d)),acdb

条件概率

已知事件 B 发生,事件 A 的条件概率是:

P(AB)=P(AB)P(B)

其中 P(B)0

P(AB)=P(A)P(B),则称事件 A,B独立的。对于独立事件 A,B,有 P(AB)=P(A)

贝叶斯定理

因为集合的交具有交换律,即对于两个事件 A,B,有 AB=BA,所以 P(AB)=P(B)P(AB)=P(A)P(BA)。于是得到:

P(AB)=P(A)P(BA)P(B)

由于 B=(BA)(BA),且 BABA 是互斥事件,所以 P(B)=P(BA)+P(BA)=P(A)P(BA)+P(A)P(BA)。于是得到:

P(AB)=P(A)P(BA)P(A)P(BA)+P(A)P(BA)

可以拓展到多个 A 的情况。

练习

1

证明布尔不等式:对于可数事件序列 A1,A2,,有 P(i1Ai)i1P(Ai)

归纳即可。

2

均匀随机一个 110 的排列 {p10},那么 p1<p2<p3 的概率?

P(p1<p2<p3)=(103)7!10!

3

证明:P(AB)+P(AB)=1

P(AB)+P(AB)=P(AB)+P(AB)P(B)=P((AB)(AB))P(B)=P(B)P(B)=1

4

证明:对于任意事件集 A1,A2,,AnP(i=1nAi)=P(A1)P(A2A1)P(A3A1A2)P(AnA1A2An1)

考虑归纳,当 n=1 时显然成立。

假设 n=k1 时成立,设 B=i=1k1Ai,那么 P(B)=P(A1)P(A2A1)P(Ak1A1A2Ak2)

所以 P(BAk)=P(B)P(AkB)=(懒得再写一遍了),得证。

离散随机变量

离散随机变量 X 是一个从有限或可数无限的样本空间 S 到实数的函数。

对于任意实数 x,定义事件 X=x{ssSX(s)=x}

对于随机变量 X,Y,根据条件概率公式,有:

P(X=xY=y)=P(X=xY=y)P(Y=y)

两个随机变量 X,Y独立的,当且仅当对于所有的 x,yX=xY=y 是独立的。

随机变量的期望

对于随机变量 X,定义其期望值为:

E(X)=xxP(X=x)

期望的线性性质:若 E(X)E(Y) 有定义,则:

E(aX+bY)=aE(X)+bE(Y)

当两个随机变量 X,Y 互相独立时:

E(XY)=E(X)E(Y)

当随机变量 X 的值 N 时,E(X)=i=0iP(X=i)=i=1P(Xi)

Jensen 不等式:假如 f 为一个下凸函数(即 x定义域,f(x)0),那么:

E(f(X))f(E(X))

随机变量的方差

对于一个随机变量 X,其方差为 D(X)(或 Var(X)),满足:

D(X)=E((XE(X))2)=E(X2+E2(X)2XE(X))=E(X2)+E2(X)2E(XE(X))=E(X2)E2(X)

可以推出:D(aX)=a2D(X)

X,Y 独立时,有 D(X+Y)=D(X)+D(Y)

练习

1

掷两个普通的六面体骰子,最大值的期望?

E(max(X,Y))=i=16P(max(X,Y)i)=i=161P(max(X,Y)<i)=i=161(i16)2=61365(5+1)(2×5+1)6=16136

2

均匀随机一个排列 {pn},最大值的位置的期望?

E(A)=i=1ni1n=n+12

3

证明:X,Y 为非负随机变量,E(max(X,Y))E(X)+E(Y)

E(max(X,Y))=E(X)+E(Y)E(min(X,Y))E(X)+E(Y)

4

n 个随机变量 X1n,每个都在 [1,m]Z 中均匀随机取值,问 E(max1in(Xi))

S=max1in(Xi)

E(max1in(Xi))=i=1mi(P(Si)P(S<i))=i=1mi((im)n(i1m)n)=m+1i=1min

最后一步需要稍微推一下。更简单的方法是利用 i=0iP(X=i)=i=1P(Xi)

5

n 个球,标号 1,2,,n,从中随机取 m(0mn) 次,每次取完不放回,问球的编号总和的期望。

设随机变量

Xi={ii 被取出0otherwise

那么答案为

E(i=1nXi)=i=1nE(Xi)=i=1niP(Xi=i)=i=1nim(n1m1)(m1)!(nm)m!=i=1nimn=m(n+1)2

6

n 个球,标号 1,2,,n,从中随机取 m(0mn) 次,每次取完有 p1 的概率放回一个,p2 的概率放回两个相同的球,保证 0p1+p21,问球的编号总和的期望。

米奇妙妙题。

Cii 球被取出来的次数。我们知道,每个球被取出的概率是均等的,所以 E(C1)=E(C2)==E(Cn)。而 E(i=1nCi)=i=1nE(Ci)=m,所以 E(C1)=E(C2)==E(Cn)=mn

于是可以计算答案:

i=1niCi=m(n+1)2

与第 5 题结果相同,因为球是等价的。这是什么意思呢?

7

在一条 n 个点的链上随机游走(每次有 12 概率向左走一个单位,12 概率向右走一个单位,若在端点处则只能向左或向右走),问从一端到达另一端的期望步数。

将点标号 1,2,,n,设 Xiin 的步数,那么 E(Xi)=12(E(Xi1)+1)+12(E(Xi+1)+1)=12(E(Xi1)+E(Xi+1))+1。整理得 E(Xi+1)=2E(Xi)E(Xi1)2。看起来是个二阶线性递推,但可以写成:E(Xi)E(Xi1)=E(Xi+1)E(Xi)+2,且 E(Xn)=0,E(Xn1)=1。可以得到 E(X1)=n2

8

在一个 n(n>1) 个点的完全图上随机游走,问点 1 到点 n 的期望步数。

所有点意义相同。设 E 为答案,那么有:

E=1n1+n2n1(E+1)

解得 E=n1

9

给定一棵以 1 为根的树 T,在这棵树上随机游走,问对于所有点 i1i 所需的步数的期望是多少。

fiifai 的期望步数。设 dii 的度数,那么有:

fi=1di(1+usoni(fu+fi+1))

化简得:

fi=di+usonifu

gifaii 的期望步数。设 i 的父亲为 u,有:

gi=1du(1+(1+gu+gi)+vsonuvi(1+fv+gi))

化简得:

gi=gu+du+vsonuvifv

算出了 f,g,我们也可以在 O(logn) 时间内求出任意两点间的期望步数。

来源

  • 《算法导论》(为什么要用算法导论学概率呢?);
  • sshwy 的博客。
  • RainAir 的博客。

作者:alan-zhao-2007

出处:https://www.cnblogs.com/alan-zhao-2007/p/probabilities-and-expectations.html

版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。

posted @   Alan_Zhao_2007  阅读(283)  评论(0编辑  收藏  举报
编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具
点击右上角即可分享
微信分享提示
more_horiz
keyboard_arrow_up dark_mode palette
选择主题