会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
黄世宇@智谱AI,OpenRL Lab负责人,强化学习,LLM,通用人工智能
[
OpenRL
][
知乎
][
GitHub
][
Linkedin
]
如果你对人工智能前沿感兴趣,欢迎联系并加入我们!
博客园
首页
新随笔
联系
管理
2019年4月25日
KL divergence
摘要: Kullback-Leibler divergence 形式: 性质: 非负 P=Q时,D[P||Q]=0 不对称性:D(P||Q)≠D(Q||P) 自信息:符合分布 P 的某一事件 x 出现,传达这条信息所需的最少信息长度为自信息,表达为 熵:从分布 P 中随机抽选一个事件,传达这条信息所需的最优
阅读全文
posted @ 2019-04-25 08:31 Shiyu_Huang
阅读(1337)
评论(0)
推荐(0)
编辑