pytorch中CrossEntropyLoss的使用

csdn
CrossEntropyLoss 等价于 softmax+log+NLLLoss

LogSoftmax等价于softmax+log

# 首先定义该类
loss = torch.nn.CrossEntropyLoss()
#然后传参进去
loss(input, target)

input维度为N*C,是网络生成的值,N为batch_size,C为类别数;

target维度为N,是标注值,非one-hot类型的值

posted @   zae  阅读(136)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 【杭电多校比赛记录】2025“钉耙编程”中国大学生算法设计春季联赛(1)
点击右上角即可分享
微信分享提示