第五章 大数定律与中心极限定律

第一节 大数定律

1.切比雪夫不等式:

定理 假设随机变量X具有数学期望
E ( X ) = μ E(X)=\mu E(X)=μ
方差
D ( X ) = σ 2 D(X)=\sigma ^2 D(X)=σ2
则对于任意一个正数
ϵ \epsilon ϵ
就有一个不等式
P { ∣ X − E ( X ) ∣ ≥ ϵ } ≤ σ 2 ϵ 2 P\{|X-E(X)|\ge \epsilon\}\le \frac{\sigma ^2}{\epsilon ^2} P{XE(X)ϵ}ϵ2σ2

P { ∣ X − E ( X ) ∣ < ϵ } ≥ 1 − σ 2 ϵ 2 P\{|X-E(X)|< \epsilon\}\ge 1-\frac{\sigma ^2}{\epsilon ^2} P{XE(X)<ϵ}1ϵ2σ2
也就是说,当epsilon足够小的时候,如果方差越小,随机变量分布越主要分布在期望周围。

一般怎么考?下面给出例题解释:

(1)例题1

在这里插入图片描述

此题欲求得5200-9400之间的概率,可以先把表达式写出来,然后通过变形得到:

在这里插入图片描述

得到了如下形式就可以利用切比雪夫不等式:

在这里插入图片描述

(2)例题2

在这里插入图片描述

一样的套公式:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来在这里插入图片描述

变形——>套公式:

在这里插入图片描述

2.随机变量序列的收敛

对于一串随机变量:
X 1 , X 2 , X 3 , . . . , X n , . . . X_1,X_2,X_3,...,X_n,... X1,X2,X3,...,Xn,...
对于任意的正数
ϵ \epsilon ϵ
那么有如下不等式:
lim ⁡ n → ∞ P ( ∣ X n − X ∣ ≥ ϵ ) = 0 lim ⁡ n → ∞ P ( ∣ X n − X ∣ < ϵ ) = 1 \lim_{n\to \infty}P(|X_n-X|\ge \epsilon)=0 \\ \lim_{n\to \infty}P(|X_n-X|< \epsilon)=1 nlimP(XnXϵ)=0nlimP(XnX<ϵ)=1
也就是说最终的随机变量都会趋近于一个稳定值:X,这个X可以是随机变量也可以是一个常数

3.切比雪夫大数定律

假设一串随机变量序列:
X 1 , X 2 , . . . , X n , . . . X_1,X_2,...,X_n,... X1,X2,...,Xn,...

他们都有:

  • 有限的的期望和方差;
  • 方差具有共同的上界;

那么随机变量的“平均随机变量”会收敛于数学期望的均值:
lim ⁡ n → ∞ P ( ∣ 1 n ∑ k = 1 n X k − 1 n ∑ k = 1 n E ( X k ) ∣ < ϵ ) = 1 \lim_{n\to\infty}P(|\frac{1}{n}\sum_{k=1}^nX_k-\frac{1}{n}\sum_{k=1}^nE(X_k)|<\epsilon)=1 nlimP(n1k=1nXkn1k=1nE(Xk)<ϵ)=1
理论意义:经过算术平均后的随机变量的取值可以较为紧密地聚集在数学期望周围。

4.伯努利大数定律

假设
μ n \mu_n μn
为n次伯努利实验中事件A发生的次数,p是成功概率,对于任意的正数
ϵ > 0 \epsilon>0 ϵ>0
恒有:
lim ⁡ n → ∞ P ( ∣ μ n n − p ∣ < ϵ ) = 1 \lim_{n\to\infty}P(|\frac{\mu_n}{n}-p|<\epsilon)=1 nlimP(nμnp<ϵ)=1
理论意义:这其实就是一个常见的道理:当试验次数足够多的时候,可以用频率近似等于概率,即:事件发生概率与频率有较大差距的概率很小。这就叫做频率的稳定性

5.辛钦大数定律(切比雪夫大数定律的特殊情况)

假设一组随机变量序列:
X 1 , X 2 , X 3 , . . . , X n X_1,X_2,X_3,...,X_n X1,X2,X3,...,Xn
独立且同分布,数学期望u存在,对于任意的正数
ϵ > 0 \epsilon>0 ϵ>0

lim ⁡ n → ∞ P { ∣ 1 n ∑ i = 1 n X i − μ ∣ < ϵ } = 1 \lim_{n\to\infty}P\{|\frac{1}{n}\sum_{i=1}^nX_i-\mu|<\epsilon\}=1 nlimP{n1i=1nXiμ<ϵ}=1
理论意义:随机变量的均值与他们共同的随机变量之间的差距在多次实验情况下比较大的概率几乎为0。这就叫做平均结果的稳定性,是所有随机事件的共性。

第二节 中心极限定理

在我们上一节中我们了解到了多个随机变量相加的情况,这种情况放在我们的现实生活中就是一件事情由多件事情所决定,eg:X是咱们射击得分:
X = ∑ i = 1 n X i X=\sum_{i=1}^{n}X_i X=i=1nXi
但是影响射击的影响有很多,就是上方的Xi,那么这些影响因素最终会“碰撞出什么样子的火花”呢?

1.独立同分布的中心极限定律

如果说大数定律说明了当n足够大的时候,X在期望周围的分布的概率,那么中心极限定理说明了n足够大的时候,X的分布趋势,也就是说“如何分布的”:

对于独立同分布的一组随机变量序列
X 1 , X 2 , X 3 , . . . , X n X_1,X_2,X_3,...,X_n X1,X2,X3,...,Xn
假设他们有有限的期望和方差,那么对他们的和进行“归一化”:
Y n = ∑ i = 1 n X k − n μ n σ Y_n=\frac{\sum_{i=1}^{n}X_k-n\mu}{\sqrt{n}\sigma} Yn=n σi=1nXknμ
这个新随机变量的分布函数具有如下特点:
lim ⁡ n → ∞ F Y n ( y ) = ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) \lim_{n\to\infty}F_{Y_n}(y)=\int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt=\Phi(x) nlimFYn(y)=x2π 1e2t2dt=Φ(x)
理论意义:当n足够大的时候,独立且同分布的这组随便变量序列的分布居然趋于一个标准正态分布

2.德莫佛-拉普拉斯定理——中心极限定理的衍生

这个定理是中心极限定理在多重伯努利实验情况下的情况:

假设一个随机变量Yn服从B(n,p),对于任意的区间(a,b),恒有:
lim ⁡ n → ∞ P ( a < y − n p n p ( 1 − p ) ≤ b ) = ∫ a b 1 2 π e − t 2 2 d t \lim_{n\to\infty}P(a<\frac{y-np}{\sqrt{np(1-p)}}\le b)=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt nlimP(a<np(1p) ynpb)=ab2π 1e2t2dt

间(a,b),恒有:
lim ⁡ n → ∞ P ( a < y − n p n p ( 1 − p ) ≤ b ) = ∫ a b 1 2 π e − t 2 2 d t \lim_{n\to\infty}P(a<\frac{y-np}{\sqrt{np(1-p)}}\le b)=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt nlimP(a<np(1p) ynpb)=ab2π 1e2t2dt