会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
9分钟带帽丶
博客园
首页
新随笔
联系
管理
订阅
2019年3月27日
deep learning的一些知识点
摘要: softmax loss: softmax: softmax的作用,将fc的输出映射成为(0,1)的概率,并将其差距拉大。 cross entropy loss: y是样本的真实标签,为1,y'是样本的分数。单个样本的交叉熵计算方法。 softmax loss: 计算n个样本的交叉熵,然后取均值。
阅读全文
posted @ 2019-03-27 15:15 9分钟带帽丶
阅读(182)
评论(0)
推荐(0)
编辑
公告