最大熵与EM算法

一、熵、联合熵(相当于并集)、条件熵、互信息

  1.熵是什么?

    (0)信息量:信息的度量p(xi)。信息量和概率成反比,熵是信息量的期望。 X是一个随机变量,可能取值有很多个。熵是信息量的期望。熵反应的是不确定性,如果不确定性越高,熵越高,概率越低。熵是可以大于1的,但是概率是不可以大于1的 

    (1)物理学中的熵 

    (2)信息论中的熵

    (3)熵相关概念Venn图     

    (4)联合熵:并集。 

  2. 

  3.

二、相对熵(KL散度)

三、交叉熵(cross-entropy)

四、信息增益(有些小疑惑)

五、最大熵模型

posted @ 2019-02-21 15:33  stone1234567890  阅读(229)  评论(0编辑  收藏  举报