摘要: 一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。 KL散度是两个概率分布P和Q差别的非对称性... 阅读全文
posted @ 2015-10-26 16:46 加拿大小哥哥 阅读(51202) 评论(0) 推荐(7) 编辑