会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
萧凡客
博客园
首页
新随笔
联系
订阅
管理
2017年9月26日
信息论基础
摘要: 1. 信息熵:考虑随机x变量的所有可能取值,即所有可能发生事件所带来的信息量的期望 信息熵越大,变量中包含的信息量就越大。同时,也说明了变量的不确定性也越大。 2.条件熵:定义为X给定条件下,Y的条件概率分布的熵对X的数学期望 条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。随机
阅读全文
posted @ 2017-09-26 21:46 萧凡客
阅读(253)
评论(0)
推荐(0)
编辑
公告