第五章 大数定律与中心极限定律
文章目录
第一节 大数定律
1.切比雪夫不等式:
定理 假设随机变量X具有数学期望
E
(
X
)
=
μ
E(X)=\mu
E(X)=μ
方差
D
(
X
)
=
σ
2
D(X)=\sigma ^2
D(X)=σ2
则对于任意一个正数
ϵ
\epsilon
ϵ
就有一个不等式
P
{
∣
X
−
E
(
X
)
∣
≥
ϵ
}
≤
σ
2
ϵ
2
P\{|X-E(X)|\ge \epsilon\}\le \frac{\sigma ^2}{\epsilon ^2}
P{∣X−E(X)∣≥ϵ}≤ϵ2σ2
即
P
{
∣
X
−
E
(
X
)
∣
<
ϵ
}
≥
1
−
σ
2
ϵ
2
P\{|X-E(X)|< \epsilon\}\ge 1-\frac{\sigma ^2}{\epsilon ^2}
P{∣X−E(X)∣<ϵ}≥1−ϵ2σ2
也就是说,当epsilon足够小的时候,如果方差越小,随机变量分布越主要分布在期望周围。
一般怎么考?下面给出例题解释:
(1)例题1
此题欲求得5200-9400之间的概率,可以先把表达式写出来,然后通过变形得到:
得到了如下形式就可以利用切比雪夫不等式:
(2)例题2
一样的套公式:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来
变形——>套公式:
2.随机变量序列的收敛
对于一串随机变量:
X
1
,
X
2
,
X
3
,
.
.
.
,
X
n
,
.
.
.
X_1,X_2,X_3,...,X_n,...
X1,X2,X3,...,Xn,...
对于任意的正数
ϵ
\epsilon
ϵ
那么有如下不等式:
lim
n
→
∞
P
(
∣
X
n
−
X
∣
≥
ϵ
)
=
0
lim
n
→
∞
P
(
∣
X
n
−
X
∣
<
ϵ
)
=
1
\lim_{n\to \infty}P(|X_n-X|\ge \epsilon)=0 \\ \lim_{n\to \infty}P(|X_n-X|< \epsilon)=1
n→∞limP(∣Xn−X∣≥ϵ)=0n→∞limP(∣Xn−X∣<ϵ)=1
也就是说最终的随机变量都会趋近于一个稳定值:X,这个X可以是随机变量也可以是一个常数。
3.切比雪夫大数定律
假设一串随机变量序列:
X
1
,
X
2
,
.
.
.
,
X
n
,
.
.
.
X_1,X_2,...,X_n,...
X1,X2,...,Xn,...
他们都有:
- 有限的的期望和方差;
- 方差具有共同的上界;
那么随机变量的“平均随机变量”会收敛于数学期望的均值:
lim
n
→
∞
P
(
∣
1
n
∑
k
=
1
n
X
k
−
1
n
∑
k
=
1
n
E
(
X
k
)
∣
<
ϵ
)
=
1
\lim_{n\to\infty}P(|\frac{1}{n}\sum_{k=1}^nX_k-\frac{1}{n}\sum_{k=1}^nE(X_k)|<\epsilon)=1
n→∞limP(∣n1k=1∑nXk−n1k=1∑nE(Xk)∣<ϵ)=1
理论意义:经过算术平均后的随机变量的取值可以较为紧密地聚集在数学期望周围。
4.伯努利大数定律
假设
μ
n
\mu_n
μn
为n次伯努利实验中事件A发生的次数,p是成功概率,对于任意的正数
ϵ
>
0
\epsilon>0
ϵ>0
恒有:
lim
n
→
∞
P
(
∣
μ
n
n
−
p
∣
<
ϵ
)
=
1
\lim_{n\to\infty}P(|\frac{\mu_n}{n}-p|<\epsilon)=1
n→∞limP(∣nμn−p∣<ϵ)=1
理论意义:这其实就是一个常见的道理:当试验次数足够多的时候,可以用频率近似等于概率,即:事件发生概率与频率有较大差距的概率很小。这就叫做频率的稳定性。
5.辛钦大数定律(切比雪夫大数定律的特殊情况)
假设一组随机变量序列:
X
1
,
X
2
,
X
3
,
.
.
.
,
X
n
X_1,X_2,X_3,...,X_n
X1,X2,X3,...,Xn
独立且同分布,数学期望u存在,对于任意的正数
ϵ
>
0
\epsilon>0
ϵ>0
有
lim
n
→
∞
P
{
∣
1
n
∑
i
=
1
n
X
i
−
μ
∣
<
ϵ
}
=
1
\lim_{n\to\infty}P\{|\frac{1}{n}\sum_{i=1}^nX_i-\mu|<\epsilon\}=1
n→∞limP{∣n1i=1∑nXi−μ∣<ϵ}=1
理论意义:随机变量的均值与他们共同的随机变量之间的差距在多次实验情况下比较大的概率几乎为0。这就叫做平均结果的稳定性,是所有随机事件的共性。
第二节 中心极限定理
在我们上一节中我们了解到了多个随机变量相加的情况,这种情况放在我们的现实生活中就是一件事情由多件事情所决定,eg:X是咱们射击得分:
X
=
∑
i
=
1
n
X
i
X=\sum_{i=1}^{n}X_i
X=i=1∑nXi
但是影响射击的影响有很多,就是上方的Xi,那么这些影响因素最终会“碰撞出什么样子的火花”呢?
1.独立同分布的中心极限定律
如果说大数定律说明了当n足够大的时候,X在期望周围的分布的概率,那么中心极限定理说明了n足够大的时候,X的分布趋势,也就是说“如何分布的”:
对于独立同分布的一组随机变量序列
X
1
,
X
2
,
X
3
,
.
.
.
,
X
n
X_1,X_2,X_3,...,X_n
X1,X2,X3,...,Xn
假设他们有有限的期望和方差,那么对他们的和进行“归一化”:
Y
n
=
∑
i
=
1
n
X
k
−
n
μ
n
σ
Y_n=\frac{\sum_{i=1}^{n}X_k-n\mu}{\sqrt{n}\sigma}
Yn=nσ∑i=1nXk−nμ
这个新随机变量的分布函数具有如下特点:
lim
n
→
∞
F
Y
n
(
y
)
=
∫
−
∞
x
1
2
π
e
−
t
2
2
d
t
=
Φ
(
x
)
\lim_{n\to\infty}F_{Y_n}(y)=\int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt=\Phi(x)
n→∞limFYn(y)=∫−∞x2π1e−2t2dt=Φ(x)
理论意义:当n足够大的时候,独立且同分布的这组随便变量序列的分布居然趋于一个标准正态分布。
2.德莫佛-拉普拉斯定理——中心极限定理的衍生
这个定理是中心极限定理在多重伯努利实验情况下的情况:
假设一个随机变量Yn服从B(n,p),对于任意的区间(a,b),恒有:
lim
n
→
∞
P
(
a
<
y
−
n
p
n
p
(
1
−
p
)
≤
b
)
=
∫
a
b
1
2
π
e
−
t
2
2
d
t
\lim_{n\to\infty}P(a<\frac{y-np}{\sqrt{np(1-p)}}\le b)=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt
n→∞limP(a<np(1−p)y−np≤b)=∫ab2π1e−2t2dt
间(a,b),恒有:
lim
n
→
∞
P
(
a
<
y
−
n
p
n
p
(
1
−
p
)
≤
b
)
=
∫
a
b
1
2
π
e
−
t
2
2
d
t
\lim_{n\to\infty}P(a<\frac{y-np}{\sqrt{np(1-p)}}\le b)=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt
n→∞limP(a<np(1−p)y−np≤b)=∫ab2π1e−2t2dt
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 25岁的心里话