概率的基础计算
概率的直观含义是对某个事件占比的一个量度。根据事件的关系,概率也会有对应的运算法则。有下面这个基本公式:
\[ P(A\cup B) = P(A) + P(B) - P(AB)
\]
这个式子和容斥原理的形式十分类似。但是这个公式实际上用的不多。更常见的是下面两种形式。
互斥事件
当事件\(A,B\)满足一定不会同时发生时,\(A,B\)即为互斥事件。注意当\(A,B\)互斥时,在\(A\)的条件下发生的事件,和在\(B\)的条件下发生的事件,同样是互斥的。这一点已经不言自明地融入到了日常计算中。
对于互斥事件\(A,B\),有:
\[ P(AB) = 0\\
P(A\cup B) = P(A) + P(B)
\]
相互独立事件
相互独立事件的要求不那么形象化,但是可以根据常识或者题目条件判断出来。对于相互独立事件\(A, B\),有:
\[ P(AB) = P(A)P(B)\\
P(A\cup B) = 1 - P(\bar A) P(\bar B)
\]
注意第二个式子很容易被忽略。由于\(A, \bar A\)和\(B, \bar B\)可以组成四对相互独立事件的关系,\(\bar A\)和\(\bar B\)的概率可以直接相乘。
概率计算可以很方便地应用在求解计数问题中。比如说,给定一个电路,有一些电阻有串联并联的关系。假如说每个电阻可以损坏或工作,问有多少种方法可以让电路正常工作。这个时候,我们假设每个电阻工作的概率为\(\frac{1}{2}\)且相互独立,对电路进行逻辑分析,在用上面的两组公式求解出整个电路正常运行的概率。将这个概率乘上总状态数\(2^n\)就可以方便地求得答案了。