摘要: 交叉熵损失,会自动给输出的logits做softmax,然后和真是标签计算交叉熵,然后再取相反数 https://zhuanlan.zhihu.com/p/383044774 CrossEntropyLoss(y_hat, y_truth) = -sum(y_truth_one_hot * log( 阅读全文
posted @ 2022-05-17 14:13 王冰冰 阅读(141) 评论(0) 推荐(0) 编辑