PRML-1.5 信息论

1.信息熵

p(x)h(x)
1.p(x)
2.xy,h(x,y)=h(x)+h(y),p(x,y)=p(x)p(y)
h(x)p(x),
h(x)=log2p(x) --1.92
2h(x)bite(bit,binary digit)
1.92p(x)
H[x]=xp(x)log2p(x) --1.93
entropy
lnnat

2.离散变量下的熵的最大值

熵是信息的度量单位,熵越大信息越混乱,越没有意义,传递也越为困难,代价越大
()p(xi)p(xi)=1M,Mxi

3.连续变量的熵

连续变量的熵称为微分熵

4.连续变量的熵的最大值



通过拉格朗日乘子法,解得

5.高斯分布的微分熵

(σ2) (1.110),σ2<12πe,H(x)<0

6.条件熵

p(x,y)xyxylnp(y|x)y

xy使

H[x,y]p(x,y)(HpXX)H[x]p(x)xyxxy

posted @   筷点雪糕侠  阅读(102)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示