[本文链接:http://www.cnblogs.com/breezedeus/archive/2012/08/12/2634466.html,转载请注明出处]

 

前几天看Andrew Ng 讲EM的视频,又温习了一遍这玩意。

 

EM的想法其实也比较简单。我要最大化似然函数(或者后验概率),但是直接最大化很难。

 

所以,我找一个似然函数的近似函数,这个近似函数小于等于似然函数,而且局部上充分逼近似然函数(保证至少在某个点两个函数有相同的函数值),而且这个函数比较容易最大化。

 

要找到一个全局逼近原来似然函数的简单函数(简单是说容易找其最大值点)显然非常不容易。EM本身是迭代找解的,它的解决方法是找局部近似函数。在初始化模型参数后,EM首先获得一个在此初始参数附近很逼近似然函数的简单函数,然后找此简单函数的最大化值点,而后模型参数更新到找到的最大化值点;之后我们又获得一个新的简单函数,它在新的参数值附近很逼近似然函数,而后就又找此简单函数的最大化值点;如此循环下去……

 

所以简单说,EM就是一个找局部近似函数,而后找此近似函数的最大化值点的迭代过程。

IMG_Ali_00239

posted on 2012-08-12 14:12  BreezeDeus  阅读(902)  评论(0编辑  收藏  举报