不积跬步,无以至千里;不积小流,无以成江海。——荀子

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2018年1月10日

摘要: 转载自:https://www.zhihu.com/question/41252833/answer/141598211 仅从机器学习的角度讨论这个问题。 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异 阅读全文
posted @ 2018-01-10 11:00 hejunlin 阅读(1134) 评论(0) 推荐(0) 编辑