torch.nn.CrossEntropyLoss

交叉熵损失,会自动给输出的logits做softmax,然后和真是标签计算交叉熵,然后再取相反数

https://zhuanlan.zhihu.com/p/383044774

CrossEntropyLoss(y_hat, y_truth) = -sum(y_truth_one_hot * log(softmax(y_hat)))
输入的y_hat是(n, C),n是样本数,C是类别数,y_truth是(n,1),表示n个样本真实类别的编号,这个编号会在函数内部被转换成one-hot编码

posted @ 2022-05-17 14:13  王冰冰  阅读(141)  评论(0编辑  收藏  举报