会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2023年4月22日
KL散度和交叉熵的对比介绍
摘要: KL散度(Kullback-Leibler Divergence)和交叉熵(Cross Entropy)是在机器学习中广泛使用的概念。这两者都用于比较两个概率分布之间的相似性,但在一些方面,它们也有所不同。本文将对KL散度和交叉熵的详细解释和比较。 完整文章: https://avoid.overf
阅读全文
posted @ 2023-04-22 10:24 deephub
阅读(20)
评论(0)
推荐(0)
编辑
公告