贝叶斯

贝叶斯公式

记状态 \(x\),观测 \(y\)

\[ p(x|y) = \frac{p(y|x)}{p(y)} \ p(x) \]

隐马尔科夫模型 HMM

满足以下关系(马尔科夫链)

\[ p(x_t|x_{1:t-1}) = p(x_t|x_{t-1}) \]

解决的问题有:

  • 滤波(根据历史观测估计当前状态),求 \(p(x_t | y_1,\cdots,y_t)\)
    方法:前向算法,先找到 \(p(x_t,y_{1:t})\)

\[\begin{align*} p(x_t,y_{1:t}) & = \sum_{x_{t-1}} \ p(x_t,x_{t-1},y_{1:t}) \\ & = \sum_{x_{t-1}} \ p(y_t | x_t,x_{t-1},y_{1:t-1}) \ p(x_t | x_{t-1},y_{1:t-1}) \ p(x_{t-1},y_{1:t-1}) \\ & = p(y_t | x_t) \ \sum_{x_{t-1}} \ p(x_t | x_{t-1}) \ p(x_{t-1},y_{1:t-1}) \end{align*} \]

  • 平滑(根据所有观测估计先前某一时刻的状态),求 \(p(x_k | y_1,\cdots,y_t)\)
    方法:前向后向算法

\[\begin{align*} p(x_k | y_1,\cdots,y_t) & = p(x_k | y_{1:k},y_{k:t}) \\ & \varpropto p(y_{k+1:t} | x_k) \ p(x_k | y_{1:k}) \end{align*} \]

  • 解码(根据所有观测求联合概率分布),求 $p(x_1,\cdots,x_t | y_1,\cdots,y_t)
    方法:Viterbi算法(动态规划)

最大似然 MLE

\[ \theta_{MLE}(x) = \arg\max\limits_{\theta}P(x | \theta) \]

最大后验 MAP

根据贝叶斯理论,对于θ的后验分布:

\[ f(\theta|x) = \frac{f(x | \theta) \ g(\theta)} {\int_{\theta \in \Omega} f(x | \hat{\theta}) \ g(\hat{\theta}) d\hat{\theta} } \]

因此,MAP的目标为:

\[ \theta_{MAP}(x) = \arg\max\limits_{\theta} P(x | \theta) \ P(\theta) \]

贝叶斯推断

MCMC 马尔可夫蒙特卡洛方法

利用马尔科夫链取样来近似后验概率
https://zhuanlan.zhihu.com/p/420214359

  • 拒绝采样
  • M-H采样
  • Gibbs采样

变分推断

https://zhuanlan.zhihu.com/p/49401976
利用优化结果来近似后验概率

posted @ 2022-06-13 18:03  land5cape  阅读(56)  评论(0编辑  收藏  举报