摘要:
转载自:https://www.zhihu.com/question/41252833/answer/141598211 仅从机器学习的角度讨论这个问题。 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异 阅读全文
摘要:
转载自:https://www.zhihu.com/question/41252833/answer/141598211 仅从机器学习的角度讨论这个问题。 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异 阅读全文
|