概率题总结(gpt写的
期望的性质
-
线性性 (Linearity)
对任意两个随机变量 \(X, Y\) 和常数 \(a, b\),无论 \(X,Y\) 是否独立,期望满足:\[\mathbb{E}[X+Y] = \mathbb{E}[X] + \mathbb{E}[Y], \quad \mathbb{E}[aX+b] = a\mathbb{E}[X] + b. \] -
单调性 (Monotonicity)
若随机变量 \(X\) 和 \(Y\) 几乎处处满足 \(X \leq Y\),则:\[\mathbb{E}[X] \leq \mathbb{E}[Y]。 \] -
有界性 (Boundedness)
若几乎处处有 \(X \leq M\),则:\[\mathbb{E}[X] \leq M。 \] -
独立下的乘积期望 (Multiplicativity under Independence)
若 \(X\) 和 \(Y\) 独立,则:\[\mathbb{E}[XY] = \mathbb{E}[X]\mathbb{E}[Y]。 \] -
Jensen不等式 (Jensen's Inequality)
若 \(g\) 为凸函数,则:\[\mathbb{E}[g(X)] \geq g(\mathbb{E}[X])。 \]若 \(g\) 为凹函数则不等式方向相反。
-
可加性 (Additivity)
对于有限个或可数多个随机变量 \(X_1, X_2, \ldots\),只要期望有定义(如绝对可积或非负),则:\[\mathbb{E}\left[\sum_{i=1}^n X_i\right] = \sum_{i=1}^n \mathbb{E}[X_i], \]若 \(\sum_{i=1}^\infty \mathbb{E}[X_i]\) 收敛,则:
\[\mathbb{E}\left[\sum_{i=1}^\infty X_i\right] = \sum_{i=1}^\infty \mathbb{E}[X_i]. \]
总结:
期望的线性性是最基本、最常用的性质,在计算复杂期望时非常有用。其它性质(如单调性、Jensen不等式)在比较期望值或为其找到上下界时同样有助益。
期望题的解题思路总结
-
明确随机变量和事件
首先,要清楚题中要求的期望是什么:是期望的次数、期望的和、期望的代价或其他量?在此基础上确定问题中的随机变量或随机过程。 -
建立状态与期望方程
很多期望问题可以通过定义状态来建立方程。- 定义
dp(x)
表示在状态x
下所求的期望值(如还需达到某条件所需的期望次数)。 - 考虑从状态
x
一次随机事件后的转移及其概率,从而写出期望的递推关系:
[
\(\text{E}[X] = \sum (\text{概率} \times \text{后续状态期望}) + \text{当前增量/成本}\)
]
- 定义
-
求解线性方程
在期望方程中,有时dp(x)
会出现在等式右侧。这种情况需要将相关项移到等式左侧,从而形成:
\(\[ dp(x)(1 - p) = \text{已知量} + \text{其他已知期望值} \]\)
然后求解出dp(x)
。
通常可以自底向上递推求解,或通过一定的代数变换获得最终结果。 -
边界条件与初始值
为了求出dp(x)
,需要已知的边界条件。例如,当不再需要满足任何条件时,期望值往往为 0,这些条件可作为起点来向其他状态递归或迭代计算。 -
化简与优化
对于复杂的期望问题,直接计算可能较慢或不易实现。可尝试:- 使用前缀和、差分等技巧加速概率与期望的计算。
- 利用线性期望的性质(期望的线性性)对复杂期望进行分解。
- 运用概率论、马尔可夫链或状态分解的方法简化。
-
线性期望与独立性
当问题由多个独立过程组成时,利用期望的线性性可以将总期望分解为各部分期望之和,无需关心变量间的独立性问题。
若复杂度和状态非常庞大,尝试将问题分解成若干独立子问题的期望进行叠加。
总结:
期望问题的核心在于通过定义状态、建立期望方程并利用已知边界条件来求解。在此过程中可结合概率的基本性质、线性期望以及必要的优化手段来高效求出最终答案。