Channel Coding Theorem 证明
防盗
https://www.cnblogs.com/setdong/p/17948414
对应于教材 Elements of Information Theory 的 8.7 章节.
在证明定理之前, 先复习一些背景知识, 包括 entropy, WLLN, AEP, joint AEP 和 DMC. 第二节为定理的声明和证明.
1. background
1.1 Entropies 熵
来自于书中的第二章
Entropy:
衡量了一个随机变量的不确定程度/随机性 (uncertainty/ randomness)
Joint entropy 联合熵:
同样地, 衡量的是 和 联合的随机性.
Conditional entropy 条件熵:
衡量的是给定 后, 的随机性.
Mutual information 互信息:
是 由于已知 而减少的“信息量”
1.2 Weak Law of Large Number(WLLN)
are i.i.d , then
即样本均值依概率收敛于期望值.
1.3 AEP: Asymptotic Equipartition Property
来自于书中的第3章
Thm. (AEP) If are i.i.d , then
Typical set (典型集) 定义:
The typical set with respect to is the set of sequences with the property
Typical set 有以下性质:
- If , then .
- for sufficiently large.
- .
- for sufficiently large.
1.4 Joint AEP
来自于书中的8.6章节
Joint typical set 定义:
The set of jointly typical sequences with respect to is the set of -sequences with empirical entropies -close to the true entropies:
where .
Thm.(Joint AEP) Let be sequences of length drawn i.i.d. . Then,
- As ,
for sufficiently large- If , then
for sufficiently large $
1.5 Discrete Memoryless Channel (DMC) without feedback
来自于书中的8.5章节
一个消息 首先被编码成长度为 的序列 , 是信道的输入, 信道是一概率转移矩阵 (probability transition matrix) , 这里的随机性是由于噪声, 信道的输出是 , 随即被解码成 .
- Memoryless 表示 , 即输出的概率分布只依赖于此时刻 () 的输入, 与之前的输入输出条件独立.
- W/O Feedback 表示 , 即输入与之前的输出独立.
- 因此 channel transition function 可以化简为
接下来是一些重要的定义:
- An code for channel consists of:
An index set ,
An encoding function , yielding codewords . The set of codewords is called the codebook,
A decoding function , which is a deterministic function. - The information channel capacity:
- Conditional probability of error:
- The maximal probability of error for an code:
- The arithmetic average probability of error for an code:
- The rate for an code:
单位是 bits/ch. use
2. Channel Coding Theorem
来自于书中的8.7章节
For a discrete memoryless channel, all rates below capacity are achievable. Specifically, for every rate , there exists a sequence of codes with maximum probability of error as .
Conversely, any sequence of codes with must have .
针对 DMC, 定理说明了两件事: 1. Achievability: 如果 小于信道容量 , 那么存在一种编码技术使任意小, 也就是说接收端收到的错误达到任意小的数值; 2. Converse: 任何无错编码技术一定满足 .
2.1 证明 Achievability:
固定 , 首先分析根据 随机生成一个 code 的概率, 这等价于根据 独立生成 个 codewords, 这 个 codewords即为 codebook . (编码簿)
如果把这个 codebook 写作一个 的矩阵:
每行即为 codewords, 如第一行为 , 是消息 的 codeword, 且 .
所以, 生成 的概率为
考虑以下事件:
- 根据上述概率公式生成一个随机的 codebook .
- 向发送端 Tx 和接收端 Rx 揭示 B, 假设 Tx 和 Rx 已知信道 .
- (均匀)随机选择一个消息 :
- 通过信道传送 .
- 接收端 Rx 根据 接收到长度为 n 的序列
- 如果下列两个条件成立, 则接收端 Rx 输出 :
a) .
b) 没有其他的 index 满足 .
如果不存在这样的 或者不只有一个这样的 , 那么报错. - 如果 , 报错.
接下来分析报错的概率 :
令 , 其中 为信道对的输出, 因为假设了传递的消息 .
根据6(a), 6(b) 和 7的描述可知, 当传递的codeword与接收到的序列不 jointly typical 时 (等价于 ), 或一个错误的 codeword与接收到的序列是 jointly typical 时(等价于 ), 错误产生. 所以:
根据union bound, 上式满足
根据 joint AEP 的第一条性质, 对于足够大的 n 有 .
根据 joint AEP 的最后一条性质, 对于足够大的 n 有 , 带入上式
当 n 足够大且 时, 上式满足
目前已经证明了当 时, 我们可以选择合适的 和 令平均错误率 小于等于 . 这里的平均是在所有的 codewords 和所有的 codebook 上的平均, 正如图片中的 sum over B 和 sum over w.
但是此时只得到了平均错误率的上界, 无法得出定理中的结论, 接下来推最大错误率 的上界.
再次考虑以下事件:
- 选择 , 为令 最大的输入分布, 也就是 是实现通道容量的那个分布.
所以上面的条件 . - 选择一个平均错误率最小的 codebook , 所以
- 移除 中最差的那半 codewords, 将剩余部分记为 , 由于平均错误率小于等于 且 概率是非负的, 所以的最大错误率一定小于等于, 否则上一条中的不等式将不成立.
Achievability 证明完毕.
其中, 移除一半codewords 令 index set 减少一半, 即
速率 R 只减少了 , 且当 n 很大时, 对 R 几乎无影响.
2.2 证明 Converse:
来自于书中的8.8 - 8.10章节
未完待续
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 【杂谈】分布式事务——高大上的无用知识?