会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
RoadWide
马路广的技术博客
博客园
首页
新随笔
联系
订阅
管理
2023年1月12日
Pytorch的cross_entropy为什么等于log_softmax加nll_loss
摘要: 首先我们要知道nll_loss是怎么算的,看下面的代码 label1 = torch.tensor([0, 3]) pred1 = torch.tensor([ [0.2, 0.7, 0.8, 0.1], [0.1, 0.3, 0.5, 0.7] ]) loss = F.nll_loss(pred1
阅读全文
posted @ 2023-01-12 20:16 roadwide
阅读(194)
评论(0)
推荐(0)
编辑
公告