会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
知其然,知其所以然。
用简单的话和栗子来学习
博客园
首页
新随笔
联系
管理
订阅
2018年12月20日
tf中softmax_cross_entropy_with_logits与sparse_softmax_cross_entropy_with_logits
摘要: 其实这两个都是计算交叉熵,只是输入数据不同。
阅读全文
posted @ 2018-12-20 10:05 知其然,知其所以然。
阅读(678)
评论(0)
推荐(0)
编辑
公告