互信息,互信息是一个随机变量包含另一个随机变量信息量的度量。熵可以看做是一个随机变量的自信息,用它可以描述随机变量的不确定度。

相对熵给出两个随机概率分布之间距离的度量。

posted @ 2009-02-27 03:11  macula7  阅读(100)  评论(0编辑  收藏  举报