熵、联合熵、条件熵、相对熵(即KL散度)、交叉熵和互信息
条件熵 H(X|Y)表示在已知随机变量 Y 的条件下随机变量 X 的不确定性
条件熵,联合熵和熵之间的关系如下:
相对熵:用来衡量两个概率分布之间的差异,也叫KL散度
交叉熵:
相对熵,熵和交叉熵的关系如下:
互信息:
互信息意义是:由于知道 y 值而造成的 x 的不确定性的减小(即Y的值透露了多少关于X 的信息量)
ps:以上内容来自
https://www.cnblogs.com/kyrieng/p/8694705.html
https://blog.csdn.net/fendouaini/article/details/79841779
https://www.cnblogs.com/jizhiyuan/p/3423821.html