熵、联合熵、条件熵、相对熵(即KL散度)、交叉熵和互信息

条件熵 H(X|Y)表示在已知随机变量 Y 的条件下随机变量 X 的不确定性

 

条件熵,联合熵和熵之间的关系如下:

 

相对熵:用来衡量两个概率分布之间的差异,也叫KL散度

交叉熵:

相对熵,熵和交叉熵的关系如下:

 互信息:

互信息意义是:由于知道 y 值而造成的 x 的不确定性的减小(即Y的值透露了多少关于X 的信息量)

ps:以上内容来自

https://www.cnblogs.com/kyrieng/p/8694705.html

https://blog.csdn.net/fendouaini/article/details/79841779

https://www.cnblogs.com/jizhiyuan/p/3423821.html

posted on 2019-08-29 11:05  大老虎🐯  阅读(1477)  评论(0编辑  收藏  举报