EM最大期望算法-走读

  打算抽时间走读一些算法,尽量通俗的记录下面,希望帮助需要的同学。
 
overview:
基本思想:
     通过初始化参数P1,P2,推断出隐变量Z的概率分布(E步);
     通过隐变量Z的概率分布,最大似然推断参数P1,P2 (M步)。
 
梯度下降也可以解决隐变量估计问题,但求和项会随隐变量个数指数增长,EM方法是一种非梯度下降优化方法。
 
 
一 例子参考
-------------------------------------------------------
引入问题:两枚材质不均匀硬币模型:五次实验,每次调一枚硬币抛5次,记录正反。
  
因变量z:每次实验的哪枚硬币
 
-------------------------------------------
初级版本:初始化P1,P2,
E步:计算隐变量各种可能(1,2)期望
  
M步骤:极大似然,确定隐变量取值,重新计算参数P1,P2
 
------------------------------------------------------------
标准版本:
E步:计算隐变量期望,
  
计算隐变量概率分布(按照概率使用所有数据集,更准确,收敛更快)
  
M步:根据隐变量的概率分布,计算每种情况下每轮的正反概率分布,最后求和计算参数P1,P2
 
 
迭代E和M直至参数收敛。
   
二 上述例子的公式版:
 
分析:求导计算复杂,所以采用EM算法
E步:计算隐变量概率分布
   
M步:根据隐变量的概率分布,计算每种情况下每轮的正反概率分布,最后求和计算参数P1,P2
   

 

 
 参考:
 
posted @ 2017-04-08 22:42  rongyux  阅读(309)  评论(0编辑  收藏  举报