浅析概率、期望、方差、分布

浅析概率、期望、方差、分布

更好的阅读体验戳此进入

还没写完,春测之后有机会继续写。

概率

定义

考虑对于事件 $ E $,令 $ P(E) $ 表示事件 $ E $ 发生的概率,显然有 $ 0 \le P(E) \le 1 $。

显然若令所有事件的并为 $ S $,则 $ P(S) = 1 $。

基本公式

\[P(EF) = P(E \cap F) \]

一个省略 $ \cap $ 的记法。

\[P(E \cup F) = P(E) + P(F) - P(EF) \]

感性理解一下,即简单容斥去掉重复部分。

\[P(E \mid F) = \dfrac{P(EF)}{P(F)} \]

$ P(E \mid F) $ 表示在 $ F $ 发生的前提下 $ E $ 发生的概率,该式可将 $ P(F) $ 移至左侧理解,即发生 $ F $ 之后在呈上 $ F $ 基础上发生 $ E $ 的概率就是 $ E, F $ 均发生的概率。

全概率公式

\[P(E) = \sum_{i}P(E \mid F_i) \quad \left( \bigcup_{i, F_i\texttt{互不相交}} F_i = S \right) \]

证明显然,即将 $ E $ 拆分成在所有 $ F_i $ 基础上的各个部分并求和。

贝叶斯公式

\[P(F_j \mid E) = \dfrac{P(EF_j)}{P(E)} = \dfrac{P(EF_j)}{\sum_{i}P(E \mid F_i)} = \dfrac{P(F_j) \times P(E \mid F_j)}{\sum_{i}P(E \mid F_i)} \]

套用前文公式推导易证。

独立事件

两事件间的独立

显然若事件 $ E, F $ 独立,则满足:

\[P(EF) = P(E) \times P(F) \]

\[P(E \mid F) = P(E) \]

多个事件之间的独立

显然若事件 $ E_1, E_2, \cdots, E_n $ 均互相独立,则满足:

对于 $ \forall T \subseteq S $,有:

\[P(\bigcap_{\alpha \in T} E_\alpha) = \prod_{\alpha \in T}P(E_\alpha) \]

此处存在误区,即直觉上我们可能认为如下命题是正确的,即:事件集合种若任意两个事件间独立,则所有事件均相互独立。但是显然这是错误的,必须要满足对于所有子集均满足上式,对于该错误命题的反例如下:

我们假设存在一随机变量 $ X $ 会离散地等概率随机生成 $ 1, 2, 3, 4 $ 之间一个数,令事件 $ E_1 $ 表示生成的为 $ 1 $ 或 $ 2 \(,\) E_2 $ 表示为 $ 2 $ 或 $ 3 \(,\) E_3 $ 表示为 $ 1 $ 或 $ 3 $。

则显然 $ P(E_1) = P(E_2) = P(E_3) = \dfrac{1}{2} $,且任意两个的积事件,或者说交集,均为 $ \dfrac{1}{4} $,显然满足两者之间独立,但是对于三个事件均发生的概率,显然为 $ 0 $,而不是理应的 $ \dfrac{1}{8} $。

从意义上理解也不难,即任意两个事件之间独立,但是某两个事件的积事件不一定与其它事件独立。

零阶矩

即总和。

期望(一阶原点矩)

这里对于随机变量 $ X $,我们记 $ p(a) = p{X = a} $。

定义

期望可以大概理解为带权平均数,对于随机变量 $ X $,记 $ E(X) $ 为其期望(或 $ \mu $),则有:

\[E(X) = \sum_{x \in X} x \times p(x) \]

基本公式

\[E(\sum_i X_i) = \sum_i E(X_i) \]

即期望的线性可加性,证明平凡。

\[E(G(X)) = \sum_{x \in X} G(x) \times p(x) \]

证明平凡。

同时注意一个误区,如 $ E(X^2) $ 与 $ E(X)^2 $ 不同,不要将其混淆。

方差(二阶中心矩)

定义

一般用来描述随机变量的波动大小,一般记作 $ \sigma^2 $,或 $ \mathrm{Var}(X) $,有:

\[\sigma^2 = \dfrac{1}{n}\sum_{i = 1}^n (x_i - \overline{x})^2 \]

基本公式

同时我们可以将其定义转换为期望意义下,并进行如下推导:

\[\begin{aligned} \sigma^2 &= E((X - E(X))^2) \\ &= E(X^2 + E(X)^2 - 2XE(X)) \\ &= E(X^2) + E(X)^2 - 2 \times (\sum x \times p(x)) E(X) \\ &= E(X^2) + E(X)^2 - 2E(X)^2 \\ &= E(X^2) - E(X) ^2 \end{aligned} \]

即方差为平方的期望减去期望的平方。

概率密度函数

考虑一个随机变量 $ X $,若其为离散的那么显然可以简单的求出任意点的概率。但若其为连续型的,那么一个点的概率在极限意义下为 $ 0 $,然然而查询一段区间的时候显然不为 $ 0 $,所以我们便引入了概率密度函数来描述这个概率,对于随机变量 $ X $ 的概率密度函数 $ f(x) $,需要满足 $ f(x) $ 在区间内的积分等于 $ X $ 落在该区间的概率。

概率分布函数

类比于概率密度函数,概率分布函数描述的是对于任意随机变量 $ \xi $ 小于 $ x $ 的概率,即一个关于 $ x $ 的函数。

独立同分布

首先独立比较好理解,就是两个随机变量之间无影响,和高中数学里面的独立事件差不多。然后同分布就是指一些随机变量服从相同的分布。

二项式分布

若对于随机变量 $ X $ 满足 $ p(i) = {n \choose i}p^i (1 - p)^{n - i} $,则其满足二项式分布。

这个东西的意义一般认为是在 $ n $ 个独立的是非试验中成功了多少个,即 $ i $ 个的概率为通过组合数选择 $ i $ 个并令这 $ i $ 个均成功,概率为 $ p^i $,其它的均失败,同理。对于这些实验中的一个一般称作伯努利试验。

其期望满足:

\[E(X) = n \times p \]

证明平凡。

其方差满足:

\[\sigma^2 = np(1 - p) \]

即考虑 $ \sigma^2 = E(X^2) - E(X)^2 = \dfrac{1}{n}n^2p - \dfrac{1}{n}n2p2 = np(1 - p) $。

正态分布

图形不再赘述,唯一需要注意的就是随机变量 $ X $ 的正态分布只需要它的期望 $ \mu $ 和方差 $ \sigma^2 $ 即可描述,记作 $ N(\mu, \sigma^2) $。

中心极限定理

对于 $ n $ 个独立同分布(如相同骰子)的随机变量 $ X_1, X_2, \cdots, X_n $,若 $ E(X_i) = \mu, D(X_i) = \sigma^2 $,令:

\[Y_n = \dfrac{\sum_{i = 1}^n X_i - n\mu}{\sqrt{n\sigma^2}} \]

若 $ n $ 足够大,则我们认为 $ Y_n \sim N(0, 1) $。

然后还有一个常用推论,当然首先我们需要知道正态分布的一点运算规则,即:

若 $ X \sim N(a, b) $ 则 $ cX \sim N(ca, c^2b) $,从期望和方差的意义不难理解。

若 $ X \sim N(a, b) $ 则 $ X + c \sim N(a + c, b) $,同理不难得出。

所以我们可以将刚才的中心极限定理式子转化为:

\[\sum_{i = 1}^nX_i \sim N(n\mu, n\sigma^2) \]

UPD

update-2023__ 初稿

posted @ 2023-03-05 12:51  Tsawke  阅读(49)  评论(0编辑  收藏  举报