信息论基础

1. 信息熵:考虑随机x变量的所有可能取值,即所有可能发生事件所带来的信息量的期望

信息熵越大,变量中包含的信息量就越大。同时,也说明了变量的不确定性也越大。

2.条件熵:定义为X给定条件下,Y的条件概率分布的熵对X的数学期望

条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。随机变量X给定的条件下随机变量Y的条件熵H(Y|X)

3. 联合熵

 

4. 相对熵

 

5. 互信息(Mulual information):也就是用来衡量两个信息的相关性大小的量。

 

链式法则:

 

 

 


 

 

posted @ 2017-09-26 21:46  萧凡客  阅读(250)  评论(0编辑  收藏  举报