会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Sunshine168
博客园
首页
新随笔
联系
管理
订阅
2020年11月13日
tensorflow 中 sigmoid, softmax, sparse_softmax 的 cross_entropy_with_logits,常见loss
摘要: 准备1、先说一下什么是logit,logit函数定义为: 是一种将取值范围在[0,1]内的概率映射到实数域[-inf,inf]的函数,如果p=0.5,函数值为0;p<0.5,函数值为负;p>0.5,函数值为正。 相对地,softmax和sigmoid则都是将[-inf,inf]映射到[0,1]的函数
阅读全文
posted @ 2020-11-13 17:24 Sunshine168
阅读(550)
评论(0)
推荐(0)
编辑
公告