会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
qzl
博客园
首页
新随笔
联系
订阅
管理
2022年2月15日
信息量、信息熵、相对熵,交叉熵 简单理解
摘要: 信息量: 假设X是一个离散型随机变量,其取值集合为X,概率分布函数为p(x)=Pr(X=x),x∈X,我们定义事件X=x0的信息量为: I(x0)=−log(p(x0)),可以理解为,一个事件发生的概率越大,则它所携带的信息量就越小,而当p(x0)=1时,熵将等于0,也就是说该事件的发生不会导致任何
阅读全文
posted @ 2022-02-15 14:39 qzl
阅读(1719)
评论(0)
推荐(0)
编辑
公告