概率
条件概率
在事件 \(A\) 发生的条件下,事件 \(B\) 发生的概率,记作 \(P(B|A)\).
条件概率公式:\(P(B|A)=\frac{P(AB)}{P(A)}\)
概率乘法公式:\(P(AB)=P(A)P(B|A)\)
若 \(A_1,\cdots,A_n\) 不交且并为样本空间 \(\Omega\).
全概率公式:\(P(B)=\sum P(A_i)P(B|A_i)\),\(B\) 的概率等于它在若干个分区概率的总和。
贝叶斯公式:
\[P(A_i|B)=\frac{P(A_iB)}{P(B)}=\frac{P(A_i)P(B|A_i)}{\sum P(A_j)P(B|A_j)}
\]
锐评:在实际应用中大概都是直觉上的,画维恩图都很好理解。
随机变量
现在有一个随机变量 \(X\),设其分布函数为 \(F(x)=P(X\leq x)\).
连续型随机变量考察 \(P(X=x)\) 通常是没有意义的,比如 \(X\) 是分布在 \([0,1]\) 上的随机变量,\(P(X=\frac{1}{2})=0\).
定义其密度函数 \(f\) 满足:
\[F(x)=\int _{-\infty}^xf(x)\text dx
\]
为啥叫密度函数,它描述了某个点右侧概率 / 长度的极限,确实像是概率在这个点处的“密度”这个感觉。
期望
\[E(X)=\int_{-\infty}^{+\infty}f(x)x\text dx
\]
线性性,以及独立的时候 \(E(XY)=E(X)E(Y)\) 这些都是用得很熟的了。
方差
描述的随机变量的离散程度。
\[D(x)=E^2(X-E(X))
\]
性质:
- \(D(aX+b)=a^2D(X)\)
- \(D(X)=E(X^2)-E^2(X)\)
Trick
\(X\) 是离散型随机变量:
\[\begin{aligned}
E(X)&=\sum_{x\geq 0}P(X=x)x
\\
&=\sum_{x\geq 0}P(X> x)
\end{aligned}
\]
上面这个确实经常用到。类比一下连续的情况。
(下面这个应该是对的)
\(X\) 是连续型随机变量:
\[\begin{aligned}
E(X)&=\int F(x)x\text{d}x
\\
&=\int G(x)\text{d}x
\end{aligned}
\]
其中 \(F(X)\) 是概率密度函数,\(G(x)=\int_{x}^{+\infty}F(y)\text dy=P(X>x)\)