信息论

熵和自信息

1. 自信息I(x)是变量X=x时的信息量或编码长度

\[I(x) =  - \log (p(x))\]

2. 熵是用来衡量一个随机事件的不确定性

3. 熵是一个随机变量的平均编码长度,即自信息的数学期望(均值)。熵越高,则随机变量的信息越多;熵越低,则信息越少。

 

互信息

1. 互信息是衡量一个变量时,另一个变量不确定性的减少程度。两个离散随机变量X和Y的互信息含义为

\[I(X;Y) = \sum\limits_{x \in \chi } {} \sum\limits_{y \in Y} {p(x,y)} \log \frac{{p(x,y)}}{{p(x)p(y)}}\]

2. 互信息的其中一个性质为

\[\begin{array}{l}
I(X;Y) = H(X) - H(X|Y)\\
I(X;Y) = H(Y) - H(Y|X)
\end{array}\]

3. 如果X和Y相互独立,即X不对Y提供任何信息,反之亦然,因此他们的互信息为0

 

交叉熵

对应分布为p(x)的随机变量,熵H(p)表示其最优编码长度。交叉熵(Cross Entropy)是按照概率分布q 的最优编码对真实分布为p 的信息进行编码的长度,定义为

\[\begin{array}{l}
H(p,q) = {E_p}[ - \log q(x)]\\
H(p,q) = - \sum\limits_x {p(x)} \log q(x)
\end{array}\]

在给定p的情况下,如果q和p越接近,交叉熵越小;如果q和p越远,交叉熵就越大

 

KL散度

也叫相对熵,是用概率分布q来近似p时所造成的信息损失量。KL散度是按照概率分布q的最优编码对真实分布为p的信息进行编码,其平均编码长度H(p, q)p的最优平均编码长度H(p) 之间的差异

\[\begin{array}{l}
{D_{KL}}(p||q) = H(p,q) - H(p)\\
{D_{KL}}(p||q) = \sum\limits_x {p(x)\log \frac{{p(x)}}{{q(x)}}}
\end{array}\]

KL散度可以是衡量两个概率分布之间的距离。KL散度总是非负的,DKL(p∥q) ≥0。只有当p = q 时,DKL(p∥q) = 0。如果两个分布越接近,KL散度越小;如果两个分布越远,KL散度就越大。但KL散度并不是一个真正的度量或距离,一是KL散度不满足距离的对称性,二是KL散度不满足距离的三角不等式性质。

 

JS散度

一种对称的衡量两个分布相似度的度量方式,定义为

\[\begin{array}{l}
{D_{JS}}(p||q) = \frac{1}{2}{D_{KL}}(p||m) + \frac{1}{2}{D_{KL}}(q||m)\\
m = \frac{1}{2}(p + q)
\end{array}\]

JS 散度是KL散度一种改进。但两种散度有存在一个问题,即如果两个分布p, q 个分布没有重叠或者重叠非常少时,KL散度和JS 散度都很难衡量两个分布的距离。

 

Wasserstein 距离

用于衡量两个分布之间的距离。对于两个分布q1, q2,pth-Wasserstein 距离定义为

\[{W_p}({q_1},{q_2}) = {(\mathop {\inf }\limits_{\gamma (x,y) \in \Gamma ({q_1},{q_2})} {E_{(x,y)\~\gamma (x,y)}}[d{(x,y)^p}])^{\frac{1}{p}}}\]

其中Γ(q1, q2) 是边际分布为q1 和q2 的所有可能的联合分布集合,d(x, y) 为x 和y 的距离,比如ℓp 距离等。

如果将两个分布看作是两个土堆,联合分布γ(x, y) 看作是从土堆q1 的位置x 到土堆q2 的位置y 的搬运土的数量,并有

\[\begin{array}{l}
\sum\limits_x {\gamma (x,y) = {q_2}(y)} \\
\sum\limits_y {\gamma (x,y) = {q_1}(x)}
\end{array}\]

q1 和q2 为γ(x, y) 的两个边际分布。

E(x,y)∼γ(x,y)[d(x, y)p] 可以理解为在联合分布γ(x, y) 下把形状为q1 的土堆搬运到形状为q2 的土堆所需的工作量

\[{E_{(x,y)\~\gamma (x,y)}}[d{(x,y)^p} = \sum\limits_{(x,y)} {\gamma (x,y)d{{(x,y)}^p}} \]

其中从土堆q1 中的点x 到土堆q2 中的点y 的移动土的数量和距离分别为γ(x, y)和d(x, y)p。因此,Wasserstein 距离可以理解为搬运土堆的最小工作量,也称为推土机距离

Wasserstein 距离相比KL散度和JS 散度的优势在于:即使两个分布没有重叠或者重叠非常少,Wasserstein 距离仍然能反映两个分布的远近。

posted @ 2019-08-06 16:58  下路派出所  阅读(581)  评论(0编辑  收藏  举报