极限定理

大数定理

弱大数定理(辛钦大数定理)
设随机变量\(X_{1},X_{2},...X_{n}...\)相互独立,服从同一个分布且具有数学期望\(E(X_{k}) = \mu (k = 1,2,..)\)则序列$ \overline{X} = \frac{1}{n} \sum_{k = 1}^{n}X_{k} \(依概率收敛于\)\mu$,即 $ \overline{X} \stackrel{P} \longrightarrow \mu $

伯努利大数定理
\(f_{A}\)是n次女里重复实验中事件A发生的次数,p是事件A在每次实验中发生的概率,则对于任意正数\(\epsilon > 0\),有

\[lim_{n\to \infty}P \{ | \frac{f_{A}}{n} - p| < \epsilon \} = 1 \]

中心极限定理

在实际中很多随机变量,他们都是由大量相互独立的随机因素综合影响所形成的,而其中每一个别因素在总的影像中所起的作用都是微小的。这种随机变量往往近似的服从正态分布。

独立同分布的中心极限定理 (\(\textcolor{red}{\Large { 同分布}}\))

随机变量$ X_{1},X_{2},....X_{n},... \(相互独立,服从同一个分布,且具有数学期望和方差:\) E(X_{k}) = \mu,D(X_{k}) = \sigma^2 > 0 (k = 1,2...) \(,则随机变量之和\)\sum_{k = 1}^n X_{k}$ 的标准化变量:

\[Y_{n} = \frac{ \sum_{k = 1}^{n}X_{k} - E(\sum_{k = 1}^{n}X_{k}) }{ \sqrt{D( \sum_{k = 1}^{n} X_{k} )} } = \frac{ \sum_{k = 1}^{n}X_{k} - n\mu }{\sqrt{n} \sigma} \]

的分布函数\(F_{n}(x)\)对于任意x满足

\[lim_{n\to\infty}F_{n}(x) = lim_{n\to\infty} P \{ \frac{ \sum_{k = 1}^{n}X_{k} - n\mu }{\sqrt{n} \sigma} \} = \int_{-\infty}^{\infty} \frac{1}{ \sqrt{2\pi} } e^{-t^2/2}dt = \Phi(x) \]

也就是说,均值为\(\mu\), 方差 \(\sigma ^2 > 0\)的独立同分布的随机变量\(X_{0},X_{1}...X_{n}\)之和的标准化变量,当n充分大的时,有

\[ \frac{\sum_{k =1}^{n}X_{k} - n\mu}{\sqrt{n} \sigma } \stackrel{近似的} \thicksim N(0,1) \qquad \qquad (1.1) $$ </font> 可以将上面的式子写成: $$ \frac{ \overline{X} - \mu }{\sigma \sqrt{n}} \stackrel{近似的} \thicksim N(0,1) \qquad 或者 \qquad \overline {X} \stackrel{近似的} \thicksim N(\mu,\sigma^2/n) \]

这一结果是梳理统计中大样本统计推断的基础.

posted on 2024-04-19 15:27  Ultraman_X  阅读(22)  评论(0编辑  收藏  举报

导航