torch.nn.CrossEntropyLoss
交叉熵损失,会自动给输出的logits做softmax,然后和真是标签计算交叉熵,然后再取相反数
https://zhuanlan.zhihu.com/p/383044774
CrossEntropyLoss(y_hat, y_truth) = -sum(y_truth_one_hot * log(softmax(y_hat)))
输入的y_hat是(n, C),n是样本数,C是类别数,y_truth是(n,1),表示n个样本真实类别的编号,这个编号会在函数内部被转换成one-hot编码
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步