信息,熵,联合熵,条件熵,互信息(信息增益),交叉熵,相对熵(KL散度)
自信息
自信息I表示概率空间中的单一事件或离散随机变量的值相关的信息量的量度。它用信息的单位表示,例如bit、nat或是hart,使用哪个单位取决于在计算中使用的对数的底。如下图:
如英语有26个字母,假设在文章中出现的概率相等,每个字母的自信息量(也称作编码长度,也就是在最优情况下,应该用多少比特去表示字母)为:
因此变量越均匀分布,自信息的期望就越大,也就熵越大(平均编码长度越长),也即最优表示变量所需用到比特数量的期望则越多,也能说明文章挈带的信息量就越多,把文章搞清楚所需要的信息量也就越大(比特数多了)。
熵
熵在物理上是表示混乱程度,在信息论中,信息熵用以下方程表示,也就是对分布自信息的期望,单位取决于在计算中使用的对数的底:
离散的表达式:
若概率越为均匀分布,则熵越大,变量的不确定性越大,把它搞清楚所需要的信息量也就越大。如AvsB,A队的胜率为100%,则我们不需要任何信息都能搞清楚A队肯定赢。但是若A队和B队的胜率各为50%,则我们要将哪队获胜确定下来所需要的信息量很大。
设随机变量 为抛一枚均匀硬币的取值,其中正面朝上用 表示,反面朝上用 表示,于是有:
注:由于 概率均相等,为了版面整洁故合并表示。这里的log是以2为底的:
联合信息熵
联合信息熵的定义如下:
条件信息熵
条件信息熵的定义如下:
用图像形象化地理解这联合信息熵与条件信息熵的关系:
举个栗子,今天的天气是什么可以看作为事件X,我是否穿短袖可看作事件Y。这两个事件可以构成联合概率分布p(X,Y),其联合熵为上述关系图的第一条
因此已知今天天气的情况下,我是否穿衣的信息量/不确定度是减少了的。所以已知H(X)这个信息量时,联合分布H(X,Y)剩余的信息量就是条件熵:
互信息
熵表明了单个随机变量的不确定程度,那么熵的值是确定不变的吗?我们有办法缩减这个不确定性吗?如果能缩减那缩减多少可以量化吗?
吴军老师《数学之美》:网页搜索本质正是减少不确定性的一个过程,根据用户的关键字和其他手段减少那些无关搜索,尽量接近用户的搜索意图,这种思维正可以体现信息论的“内功”本色。
一个例子来说明事件不确定性的变化:
假设现在我给你一枚硬币,告诉你这是均匀的,请你抛100次然后告诉我结果,结果你抛了100次后,记录的结果是:正面朝上90次,反面朝上10次,你就会开始怀疑“这真是一枚均匀的硬币吗?”
由第一部分熵中,我们知道,这一枚硬币的熵应该是1 bit,但是这样的试验之后,这枚硬币的熵还是1 bit吗?我们可以假设正面朝上的概率为0.9,反面朝上的概率为0.1,计算一下这个熵:
其中, 表示为知道90次正面朝上的事实后,原硬币的熵。
经过抛掷100次后,我们知道这么硬币可能是不均匀的,且新的熵为0.469 bit,也就是说我们在知道90次正面朝上,10次反面朝下的事实之后,这个硬币的熵缩小了0.531 bit,这个0.531的信息量,我们就称为互信息。
从而我们引入互信息的定义:
对于两个随机变量 和 ,如果其联合分布为 ,边缘分布为 ,则互信息可以定义为:这个定义是根据相对熵来下的定义,这个定义能变成我们刚刚所说的缩减信息的形式,推导如下:
经过推导后,我们可以直观地看到 表示为原随机变量 的信息量, 为知道事实 后 的信息量,互信息 则表示为知道事实 后,原来信息量减少了多少。
为了更加形象地描述互信息,文氏图来说明:
最后,如果随机变量 独立,那么互信息是多少呢?应该是0,这意味着,知道事实 并没有减少 的信息量,这是符合直觉的因为独立本来就是互不影响的。
交叉熵
现在有关于样本集的两个概率分布 p(x) 和 q(x),其中 p(x) 为真实分布, q(x)非真实分布。如果用真实分布 p(x) 来衡量识别一个样本所需要编码长度的期望(平均编码长度)为:
如果使用非真实分布 q(x) 来表示来自真实分布 p(x) 的平均编码长度,则是交叉熵。公式如下:
本质上可以看成用p分布的编码方式去编码q分布,所得到的编码长度期望。
举个例子。考虑一个随机变量 x,真实分布p(x)=(1/2,1/4,1/8,1/8),非真实分布 q(x)=(1/4,1/4,1/4,1/4), 则H(p)=1.75 bits(最短平均码长),交叉熵:
由此可以看出根据非真实分布 q(x) 得到的平均码长大于根据真实分布 p(x) 得到的平均码长。
KL散度(相对熵)公式如下:
用形象化地表示三者的关系:
第一行表示p所含的信息量/平均编码长度H(p);
第二行是cross-entropy,即用q来编码p所含的信息量/平均编码长度|或者称之为q对p的cross-entropy;
第三行是上面两者之间的差值,即q对p的KL距离,KL距离越大说明差值越大,说明两个分布的差异越大。
注意这三者都是非负的。上面说的KL和cross-entropy是两个不同分布之间的距离度量,因此用H(p)来表示熵。如果是测量同一分布中两个变量相互影响的关系,则一般用H(X)来表示熵,如联合信息熵和条件信息熵。
相对熵与KL散度
1. 概念
在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和q差异的一种方法。
KL散度在信息论中物理意义,它是用来度量使用基于q分布的编码来编码来自p分布的样本平均所需的额外的Bit个数。而其在机器学习领域的物理意义则是用来度量两个函数的相似程度或者相近程度。
考虑某个未知的分布 p(x),假定用一个近似的分布 q(x) 对它进行建模。如果我们使用 q(x) 来建立一个编码体系,用来把 x 的值传给接收者,那么由于我们使用了q(x)而不是真实分布p(x),平均编码长度比用真实分布p(x)进行编码增加的信息量(单位是 nat )为:
(1)
这被称为分布p(x)和分布q(x)之间的相对熵(relative entropy)或者KL散 度( Kullback-Leibler divergence )。
也就是说,当我们知道真实的概率分布之后,可以给出最有效的编码。如果我们使用了不同于真实分布的概率分布,那么我们一定会损失编码效率,并且在传输时增加的平均额外信息量至少等于两个分布之间的KL散度。
注意,这不是一个对称量,即 。
1.1. 为什么KL散度大于等于0
现在要证明的是KL散度满足 ,并且当且仅当 p(x) = q(x) 时等号成立。
设实直线上的函数f(x) 是一个非负函数,且:
如果 g 是任意实可测函数且函数 是凸的,那么有Jensen不等式如下:
注意到,-ln x 是严格的凸函数且 。
令 , , f(x)=p(x)
把公式(2)形式的 Jensen 不等式应用于公式(1)给出的 KL散度,直接可得
(3)
只有 q(x) = p(x) 对于所有 x 都成立时,等号才成立,
因此我们可以把 KL 散度看做两个分布 p(x) 和 q(x)之间不相似程度的度量。
1.2. 最小化 Kullback-Leibler 散度等价于最大化似然函数
假设我们想要对未知分布p(x) 建模,可以试着使用一些参数分布 来近似p(x)。 由可调节的参数 控制(例如一个多元高斯分布)。
通过最小化 p(x) 和 之间关于 的 KL散度可以确定 。
但是因为不知道 p(x),所以不能直接这么做。
如果已经观察到了服从分布 p(x) 的有限数量的训练点集 ,其中 ,那么关于 p(x) 的期望就可以通过这些点的有限加和,使用公式 来近似,即:
(4)
公式(4)右侧的第二项与 无关,第一项是使用训练集估计的分布 下的 的负对数似然函数。
因此最小化KL散度等价于最大化似然函数。
1.3. KL散度的测度论定义
如果 和 是 集合X上的测度,且
由Radon–Nikodym theorem, 和 的KL散度定义如下: