【信息论】信息熵、损失熵、噪声熵和互信息量

【信息论】信息熵、损失熵、噪声熵和互信息量

原文链接:https://www.cnblogs.com/Baiyug/p/16908846.html

1 信息熵#

信息熵(entropy)表征了某个信息的平均不确定度,是信息自信息量的数学期望。例如,某个信源发出L个信息序列(即L个信息符号),每个信息符号的取值有m个

{X1,X2,X3,...,Xi,...,Xl}Xi{a1,a2,a3,...,ai,...am}

这里的 Xi 是个抽象的概念,实际上一个符号就代表一个码元,每个码元由比特位构成,也就是由0,1序列构成。

怎么理解ai?

ai 就是每个信息符号Xi可能取的值,比如说001,010或111等等,注意,一个信息符号只能取一个ai

看个例题

接着上面那个例子,我们讨论第一个信息符号,假设X1的概率空间有

p(X1)=p(ai)=[121316]

即,X1这个符号可能取为a1,a2a3,并且各个取值的概率为

p(a1)=12p(a2)=13p(a3)=16

我们求信息符号 X1 的熵,用H(X1)表示

计算结果如下

H(X1)=E(I(ai))=i=13p(ai)log21p(ai)=12log2(12)13log2(13)16log2(16)1.46(bit/)

这是一个信息符号的熵,仅描述了一个信息符号的平均不确定度,要讨论一个信息序列的熵,则要更复杂一些,一般的对于无记忆信源,其信息序列的熵就是各个单符号信息熵的和;对于有记忆信源,其信息序列的熵的计算方法就比较复杂,这里不做讨论。

总之,符号信息熵表征为符号信息的平均不确定度,能够代表该符号所携带的信息量,或者说表示为符号携带的信息量的期望值。其值越大,表示符号最有可能携带的信息量越大。

符号信息熵不能无穷大,即存在最大值,当该符号的各个取值的概率相等时,即取值等概分布的条件下,符号信息熵取得最大值,

H(X)max=log2M

M表示符号能够取值的个数,在上面那个例子中,M 就是a的个数,即 M=3,所以在上述例子中,

H(X)max=log231.58(bit/)

2 有噪有损信道模型#

信息传输中,一个重要的步骤就是经过信道,在信道中,我们传输的信息可能会受到干扰(即环境噪声会影响我们的有效信息),另外,我们要传输的信息可能会在信道中损失。下面我用图解的方法给出一个单符号信息在有噪有损信道传输的模型。

可以看到,发送端如果发送的是a2,那么接收端有可能收到b1,也可能收到b3,这是因为噪声的干扰;再看接收端,如果收到的是b1,那么对应的发送端有可能是a1,也可能是a2,这代表a1或者a2发送的信息有一定的损失。

3 图解信息熵、损失熵、噪声熵和互信息的关系#

上述的有噪有损信道中传输信息,涉及的信息量可以分成几类,

  • 发送端的期望信息量,表示为H(X),即发送端的信息熵
  • 接收端的期望信息量,表示为H(Y),即接收端的信息熵
  • 传输中损失的期望信息量,表示为H(X|Y),即损失熵,又叫疑义度
  • 噪声包含的期望信息量,表示为H(Y|X),即噪声熵
  • 在信道中传输的期望信息量,表示为I(X;Y),即联系发送端与接收端的平均互信息量

话不多说,直接上图

上图参考了一些其他的资料,从该图,我们可以形象的描述信息熵、损失熵、噪声熵和互信息之间的数量关系,并且理解什么叫损失,什么叫噪声干扰。

作者:Baiyug

出处:https://www.cnblogs.com/Baiyug/p/16908846.html

版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。

posted @   Baiyug  阅读(3958)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示
more_horiz
keyboard_arrow_up dark_mode palette
选择主题
menu