应用信息论基础 第四章 信道与信道容量 笔记

学习要点:

  • 信道特性
  1. 基本概念
  2. 信道模型及分类
  3. 信道容量特性
  • 信道容量计算
  1. 离散信道容量
  2. 组合信道容量
  3. 连续及模拟信道容量

4.1 信道与信道容量

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
无记忆信道指的信道转移的这个特性在每一时刻彼此是独立的。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
符号变为 mm 个的话,C=maxI(X;Y)=maxH(X)=logmC=\max I(X;Y)=\max H(X)=\log{m} bit

在这里插入图片描述
无噪声应该不等于无差错,因为假如两个不同的输入都以概率 11 映射到了同一个输出,那么也是产生了差错的。

在这里插入图片描述
这个例子很有意思。可以找到明确的译码方案来达到这个容量。

4.2 离散信道的信道容量

在这里插入图片描述
离散无记忆信道(DMC,discrete memoryless channel)

无记忆性:若某一时刻的输出仅和当时的输入有关,而与过去的输入和输出无关。

在这里插入图片描述
对于转移概率矩阵 QQ ,它的每一行的和都是 11 ,但是列和不一定是 11
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
其中 JJ 是输出字符集的大小,KK 是输入字符集的大小。

额,这个证明我觉得可有可无,因为对称信道每一行是不同的排列,对于不同的输入字符,其输出的概率分布里的数值形成的集合是相同的,因此每一行的熵都相同,自然有 H(YX)=H(Yak)H(Y|X)=H(Y|a_k),其中 aka_k 为第 kk 个输入字符。

然后 CC 在输出分布为均匀分布时取得。

在这里插入图片描述
在这里插入图片描述

这个定理也很显然,对于对称信道,输出等概时,输入也是等概。我觉得这个证明写复杂了,对称信道每一行是不同的排列,每一列也是不同的排列,因此每一行的和是相同的,并且每一列的和也是相同的,也易知行和与列和都是 11,因此在输入等概时可以直接得出 H0=1JH_0=\dfrac{1}{J}

在这里插入图片描述
其中 KK 表示输入输出字符集大小,强对称信道中输入输出字符集的大小是一样的。

在这里插入图片描述
在这里插入图片描述
现在就是通过调整输入分布,来得到最大的 I(X;Y)I(X;Y) ,也就是 I(p,Q)I(p,Q),从而得到信道容量。其中 pp 是输入分布,QQ 是转移概率矩阵。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这个可以稍微算一下:

I(X=0;Y)=H(Y)H(YX=0)=2×38log3814log14(34log3414log14)=34 \begin{aligned} I(X=0;Y)&=H(Y)-H(Y|X=0)\\ &=-2\times\frac{3}{8}\log{\frac{3}{8}}-\frac{1}{4}\log\frac{1}{4}-(-\frac{3}{4}\log\frac{3}{4}-\frac{1}{4}\log\frac{1}{4})\\ &=\frac{3}{4} \end{aligned}

剩下的不算了,道理一样的。
在这里插入图片描述
这个定理的意思是,假如我们现在找到了一个能够达到信道容量的最佳分布 pp^*,那么对于概率不为 00 的输入字符,其与输出字符的互信息必等于信道容量;假如该输入字符概率为 00 ,那么互信息必小于等于信道容量。

互信息的公式要记一下:

I(X;Y)=kjp(ak,bj)logp(ak,bj)p(ak)p(bj)=kjp(ak)q(bjak)logp(ak)q(bjak)p(ak)p(bj)=kjp(ak)q(bjak)logq(bjak)p(bj)=kp(ak)jq(bjak)logq(bjak)p(bj)=kp(ak)I(X=ak;Y)I(X=ak;Y)=jq(bjak)logq(bjak)p(bj) \begin{aligned} I(X;Y)&=\sum_k\sum_jp(a_k,b_j)\log\frac{p(a_k,b_j)}{p(a_k)p(b_j)}\\ &=\sum_k\sum_jp(a_k)q(b_j|a_k)\log\frac{p(a_k)q(b_j|a_k)}{p(a_k)p(b_j)}\\ &=\sum_k\sum_jp(a_k)q(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}\\ &=\sum_kp(a_k)\sum_jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}\\ &=\sum_kp(a_k)I(X=a_k;Y)\\ I(X=a_k;Y)&=\sum_jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}\\ \end{aligned}

在这里插入图片描述
额,这个求偏导的地方步骤写的很简略…

g(p)p(ak)=p(ak)[i=1Kp(ai)j=1Jq(bjai)logq(bjai)p(bj)]μ=p(ak)[i=1Kp(ai)j=1Jq(bjai)logq(bjai)i=1Kp(ai)q(bjai)]μ=j=1Jq(bjak)logq(bjak)p(bj)+i=1Kp(ak)j=1Jq(bjak)p(ak)logq(bjak)i=1Kp(ai)q(bjai)μ=j=1Jq(bjak)logq(bjak)p(bj)i=1Kp(ak)j=1Jq(bjak)q(bjak)i=1Kp(ai)q(bjai)logeμ=j=1Jq(bjak)logq(bjak)p(bj)j=1Jp(bj)q(bjak)p(bj)logeμ=j=1Jq(bjak)logq(bjak)p(bj)j=1Jq(bjak)logeμ=I(X=ak;Y)p=plogeμ \begin{aligned} \frac{\partial g(p)}{\partial p(a_k)}&=\frac{\partial}{\partial p(a_k)}[\sum_{i=1}^Kp(a_i)\sum_{j=1}^Jq(b_j|a_i)\log\frac{q(b_j|a_i)}{p(b_j)}]-\mu\\ &=\frac{\partial}{\partial p(a_k)}[\sum_{i=1}^Kp(a_i)\sum_{j=1}^Jq(b_j|a_i)\log\frac{q(b_j|a_i)}{\sum_{i=1}^Kp(a_i)q(b_j|a_i)}]-\mu\\ &=\sum_{j=1}^Jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}+\sum_{i=1}^Kp(a_k)\sum_{j=1}^Jq(b_j|a_k)\frac{\partial}{\partial p(a_k)}\log\frac{q(b_j|a_k)}{\sum_{i=1}^Kp(a_i)q(b_j|a_i)}-\mu\\ &=\sum_{j=1}^Jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}-\sum_{i=1}^Kp(a_k)\sum_{j=1}^Jq(b_j|a_k)\frac{q(b_j|a_k)}{\sum_{i=1}^Kp(a_i)q(b_j|a_i)}\log{e}-\mu\\ &=\sum_{j=1}^Jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}-\sum_{j=1}^Jp(b_j)\frac{q(b_j|a_k)}{p(b_j)}\log{e}-\mu\\ &=\sum_{j=1}^Jq(b_j|a_k)\log\frac{q(b_j|a_k)}{p(b_j)}-\sum_{j=1}^Jq(b_j|a_k)\log{e}-\mu\\ &=I(X=a_k;Y)|_{p=p^*}-\log{e}-\mu \end{aligned}

重点就是分母上的 p(bj)p(b_j) 在求导的时候要展开。

在这里插入图片描述
妙啊。

在这里插入图片描述
在这里插入图片描述
单调递减这个也很显然,把分母写开之后发现 p(ak)p(a_k) 在分母这里,一层层推出去就发现这玩意是单减的。

在这里插入图片描述
二元对称信道怎么搞都行,可以直接 C=maxI(X;Y)=maxH(Y)H(YX)=maxH(Y)H(ϵ)=1H(ϵ)C=\max{I(X;Y)=\max{H(Y)}-H(Y|X)}=\max{H(Y)}-H(\epsilon)=1-H(\epsilon)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
等号在输出字符之间独立时取到(因为信道是无记忆的,所以输出字符独立要求输入字符独立)

在这里插入图片描述
在这里插入图片描述
有记忆信道的结论和无记忆信道的结论中的不等号的方向是相反的。

在这里插入图片描述
在这里插入图片描述

4.3 信源与信道的匹配

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
为啥这么复杂。。要我来的话:I(X;Y)I(X;Y) 关于 p(y)p(y) 上凸,因此极值点唯一。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.4 组合的信道

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这个和信道很有意思

在这里插入图片描述
在这里插入图片描述

4.5 连续信道的信道容量

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.6 模拟信道的信道容量

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

posted @ 2020-05-01 19:19  winechord  阅读(1354)  评论(0编辑  收藏  举报