会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
X18301096
博客园
首页
新随笔
联系
管理
订阅
2019年7月1日
深度学习中loss总结
摘要: 一、分类损失 1、交叉熵损失函数 公式: 交叉熵的原理 交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉熵,则: 有这样一个定理:当p=q时,交叉熵去的最小值.因此可以利用交叉熵比较
阅读全文
posted @ 2019-07-01 14:12 X18301096
阅读(2115)
评论(0)
推荐(0)
编辑
公告