Fork me on GitHub

Metropolis-Hastings算法

(学习这部分内容大约需要1.5小时)

摘要

马尔科夫链蒙特卡洛(Markov chain Monte Carlo, MCMC)是一种近似采样算法, 它通过定义稳态分布为 \(p\) 的马尔科夫链, 在目标分布 \(p\) 中进行采样. Metropolis-Hastings 是找到这样一条马尔科夫链的非常一般的方法: 选择一个提议分布(proposal distribution), 并通过随机接受或拒绝该提议来纠正偏差. 虽然其数学公式是非常一般化的, 但选择好的提议分布却是一门艺术.

预备知识

学习 Metropolis-Hastings 算法需要以下预备知识

学习目标

  • 知道细致平衡条件(detailed balance conditions)说的是啥
  • 知道 Metropolis-Hastings 算法的定义
  • 证明 M-H 算法满足细致平衡条件
  • 如果不仔细选择提议分布, 请注意可能的故障模式: 缓慢的 mixing 和低接受概率.

核心资源

(阅读/观看以下其中一个)

免费

付费

  • Pattern Recognition and Machine Learning(PRML)
    简介: 一本研究生机器学习教材, 聚焦于贝叶斯方法
    位置: Section 11.2, pages 537-542
    网站
    作者: Christopher M. Bishop

  • Machine Learning: a Probabilistic Perspective(MLAPP)
    简介: 一本非常全面的研究生机器学习教材
    位置: Section 24.3-24.3.6, pages 848-855

    网站
    作者: Kevin P. Murphy

增补资源

免费

付费

  • Probabilistic Graphical Models: Principles and Techniques
    简介: 一本非常全面的概率AI研究生教材
    位置: Section 12.3.4, pages 515-518

    网站
    作者: Daphne Koller,Nir Friedman

相关知识

  • Gibbs 采样 是一种常用的特殊 M-H 算法

  • 其他 M-H 算法包括:

    在某些条件下, 我们可以确定最佳的 M-H 接受率.


返回贝叶斯机器学习路线图

posted @ 2017-02-14 16:38  概率机器人  阅读(3214)  评论(0编辑  收藏  举报