【记录】torch.nn.CrossEntropyLoss报错及解决
报错
在多分类语义分割问题中使用torch.nn.CrossEntropyLoss的时候,遇到的报错有:
1. Assertion `t >= 0 && t < n_classes` failed.
2. RuntimeError: Expected floating point type for target with class probabilities, got Long
通过官方文档了解到,torch.nn.CrossEntropyLoss分为两种情况:
- 直接使用class进行分类,此时的label为0,1,2…的整数。对于这类情况,torch.nn.CrossEntropyLoss中添加了
LogSoftmax
以及NLLLoss
,因此不用在网络的最后添加 softmax和argmax 将输出结果转换为整型。 - 使用每一类的概率。这种标签通常情况下效果比直接使用class进行分类要好一些,但在少样本 && 在每一类上使用标签过于严格 的时候,才推荐使用概率作为标签。
解决
假设传入torch.nn.CrossEntropyLoss的参数为torch.nn.CrossEntropyLoss(pred, label)
,其中pred
为模型预测的输出,label
为标签。
这两个报错都是因为pred输入的维度错误导致的
根据官网文档,如果直接使用class进行分类,pred的维度应该是[batchsize, class, dim 1, dim 2, ... dim K]
,label的维度应该是[batchsize, dim 1, dim 2, ... dim K]
。注意在网络输出的channel中加入class number的维度。不然softmax无法计算,及model的output channel = class number。
另,如果想直接使用class进行分类,需要讲label的type转换成long格式:labels = labels.to(device, dtype=torch.long)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 因为Apifox不支持离线,我果断选择了Apipost!
· 通过 API 将Deepseek响应流式内容输出到前端