06 2011 档案
摘要:stanford的NLP课件是一个比较好的总结这里记录下。http://www.stanford.edu/class/cs224n/handouts/fsnlp-em-slides.pdf MLE 又一个不同的应用场景,但是可以看出基本都是mixture… 引入hidden variable让计算变的容易,因为确定了具体哪个part model产生 这个推导看前面的总结 关键词 下面是这个课件独有的,EM made easy 其实作者也是想证明Qfunction怎么获得的,思路和总结2中殊途同归,不过没有用log直接用概率*,利用artithmetic means >= geometri
阅读全文
摘要:Andrew Ng 关于EM有两个不错的课件 http://www.stanford.edu/class/cs229/notes/cs229-notes7b.pdf Mixtures of Gaussians and the EM algorithm http://www.stanford.edu/class/cs229/notes/cs229-notes8.pdf The EM algorith...
阅读全文
摘要:A Note on the Expectation-Maximization(EM) Algorithm ChengXiang Zhai 的一篇EM算法note。/Files/rocketfan/em-note.pdf 1. 简介 KMEAS算法就是一种EM算法,比如要给所有的点聚类成两组,那么先随机取两个点作为中心,然后将所有点按照距离这两个点的聚类分类到这两个点上,分成两组,然后每个组再计算中...
阅读全文