摘要: 熵和自信息 1. 自信息I(x)是变量X=x时的信息量或编码长度 \[I(x) = - \log (p(x))\] 2. 熵是用来衡量一个随机事件的不确定性 3. 熵是一个随机变量的平均编码长度,即自信息的数学期望(均值)。熵越高,则随机变量的信息越多;熵越低,则信息越少。 互信息 1. 互信息是衡 阅读全文
posted @ 2019-08-06 16:58 下路派出所 阅读(581) 评论(0) 推荐(0) 编辑