概率题总结(gpt写的

期望的性质

  1. 线性性 (Linearity)
    对任意两个随机变量 \(X, Y\) 和常数 \(a, b\),无论 \(X,Y\) 是否独立,期望满足:

    \[\mathbb{E}[X+Y] = \mathbb{E}[X] + \mathbb{E}[Y], \quad \mathbb{E}[aX+b] = a\mathbb{E}[X] + b. \]

  2. 单调性 (Monotonicity)
    若随机变量 \(X\)\(Y\) 几乎处处满足 \(X \leq Y\),则:

    \[\mathbb{E}[X] \leq \mathbb{E}[Y]。 \]

  3. 有界性 (Boundedness)
    若几乎处处有 \(X \leq M\),则:

    \[\mathbb{E}[X] \leq M。 \]

  4. 独立下的乘积期望 (Multiplicativity under Independence)
    \(X\)\(Y\) 独立,则:

    \[\mathbb{E}[XY] = \mathbb{E}[X]\mathbb{E}[Y]。 \]

  5. Jensen不等式 (Jensen's Inequality)
    \(g\) 为凸函数,则:

    \[\mathbb{E}[g(X)] \geq g(\mathbb{E}[X])。 \]

    \(g\) 为凹函数则不等式方向相反。

  6. 可加性 (Additivity)
    对于有限个或可数多个随机变量 \(X_1, X_2, \ldots\),只要期望有定义(如绝对可积或非负),则:

    \[\mathbb{E}\left[\sum_{i=1}^n X_i\right] = \sum_{i=1}^n \mathbb{E}[X_i], \]

    \(\sum_{i=1}^\infty \mathbb{E}[X_i]\) 收敛,则:

    \[\mathbb{E}\left[\sum_{i=1}^\infty X_i\right] = \sum_{i=1}^\infty \mathbb{E}[X_i]. \]

总结
期望的线性性是最基本、最常用的性质,在计算复杂期望时非常有用。其它性质(如单调性、Jensen不等式)在比较期望值或为其找到上下界时同样有助益。

期望题的解题思路总结

  1. 明确随机变量和事件
    首先,要清楚题中要求的期望是什么:是期望的次数、期望的和、期望的代价或其他量?在此基础上确定问题中的随机变量或随机过程。

  2. 建立状态与期望方程
    很多期望问题可以通过定义状态来建立方程。

    • 定义 dp(x) 表示在状态 x 下所求的期望值(如还需达到某条件所需的期望次数)。
    • 考虑从状态 x 一次随机事件后的转移及其概率,从而写出期望的递推关系:
      [
      \(\text{E}[X] = \sum (\text{概率} \times \text{后续状态期望}) + \text{当前增量/成本}\)
      ]
  3. 求解线性方程
    在期望方程中,有时 dp(x) 会出现在等式右侧。这种情况需要将相关项移到等式左侧,从而形成:
    \(\[ dp(x)(1 - p) = \text{已知量} + \text{其他已知期望值} \]\)
    然后求解出 dp(x)
    通常可以自底向上递推求解,或通过一定的代数变换获得最终结果。

  4. 边界条件与初始值
    为了求出 dp(x),需要已知的边界条件。例如,当不再需要满足任何条件时,期望值往往为 0,这些条件可作为起点来向其他状态递归或迭代计算。

  5. 化简与优化
    对于复杂的期望问题,直接计算可能较慢或不易实现。可尝试:

    • 使用前缀和、差分等技巧加速概率与期望的计算。
    • 利用线性期望的性质(期望的线性性)对复杂期望进行分解。
    • 运用概率论、马尔可夫链或状态分解的方法简化。
  6. 线性期望与独立性
    当问题由多个独立过程组成时,利用期望的线性性可以将总期望分解为各部分期望之和,无需关心变量间的独立性问题。
    若复杂度和状态非常庞大,尝试将问题分解成若干独立子问题的期望进行叠加。


总结
期望问题的核心在于通过定义状态、建立期望方程并利用已知边界条件来求解。在此过程中可结合概率的基本性质、线性期望以及必要的优化手段来高效求出最终答案。

posted @ 2024-12-13 14:57  lyrrr  阅读(1)  评论(0编辑  收藏  举报