会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
下路派出所
博客园
首页
新随笔
联系
订阅
管理
2019年8月6日
信息论
摘要: 熵和自信息 1. 自信息I(x)是变量X=x时的信息量或编码长度 \[I(x) = - \log (p(x))\] 2. 熵是用来衡量一个随机事件的不确定性 3. 熵是一个随机变量的平均编码长度,即自信息的数学期望(均值)。熵越高,则随机变量的信息越多;熵越低,则信息越少。 互信息 1. 互信息是衡
阅读全文
posted @ 2019-08-06 16:58 下路派出所
阅读(585)
评论(0)
推荐(0)
编辑
公告