摘要: KL-divergence,俗称KL距离,常用来衡量两个概率分布的距离。根据shannon的信息论,给定一个字符集的概率分布,我们可以设计一种编码,使得表示该字符集组成的字符串平均需要的比特数最少。假设这个字符集是X,对x∈X,其出现概率为P(x),那么其最优编码平均需要的比特数等于这个字符集的熵:... 阅读全文
posted @ 2014-05-21 15:15 wonglou 阅读(867) 评论(0) 推荐(0) 编辑