贝叶斯
贝叶斯公式
记状态 \(x\),观测 \(y\)
\[ p(x|y) = \frac{p(y|x)}{p(y)} \ p(x)
\]
隐马尔科夫模型 HMM
满足以下关系(马尔科夫链)
\[ p(x_t|x_{1:t-1}) = p(x_t|x_{t-1})
\]
解决的问题有:
- 滤波(根据历史观测估计当前状态),求 \(p(x_t | y_1,\cdots,y_t)\)
方法:前向算法,先找到 \(p(x_t,y_{1:t})\)
\[\begin{align*}
p(x_t,y_{1:t})
& = \sum_{x_{t-1}} \ p(x_t,x_{t-1},y_{1:t}) \\
& = \sum_{x_{t-1}} \ p(y_t | x_t,x_{t-1},y_{1:t-1}) \ p(x_t | x_{t-1},y_{1:t-1}) \ p(x_{t-1},y_{1:t-1}) \\
& = p(y_t | x_t) \ \sum_{x_{t-1}} \ p(x_t | x_{t-1}) \ p(x_{t-1},y_{1:t-1})
\end{align*}
\]
- 平滑(根据所有观测估计先前某一时刻的状态),求 \(p(x_k | y_1,\cdots,y_t)\)
方法:前向后向算法
\[\begin{align*}
p(x_k | y_1,\cdots,y_t)
& = p(x_k | y_{1:k},y_{k:t}) \\
& \varpropto p(y_{k+1:t} | x_k) \ p(x_k | y_{1:k})
\end{align*}
\]
- 解码(根据所有观测求联合概率分布),求 $p(x_1,\cdots,x_t | y_1,\cdots,y_t)
方法:Viterbi算法(动态规划)
最大似然 MLE
\[ \theta_{MLE}(x) = \arg\max\limits_{\theta}P(x | \theta)
\]
最大后验 MAP
根据贝叶斯理论,对于θ的后验分布:
\[ f(\theta|x) = \frac{f(x | \theta) \ g(\theta)} {\int_{\theta \in \Omega} f(x | \hat{\theta}) \ g(\hat{\theta}) d\hat{\theta} }
\]
因此,MAP的目标为:
\[ \theta_{MAP}(x) = \arg\max\limits_{\theta} P(x | \theta) \ P(\theta)
\]
贝叶斯推断
MCMC 马尔可夫蒙特卡洛方法
利用马尔科夫链取样来近似后验概率
https://zhuanlan.zhihu.com/p/420214359
- 拒绝采样
- M-H采样
- Gibbs采样
变分推断
https://zhuanlan.zhihu.com/p/49401976
利用优化结果来近似后验概率