pytorch 计算 CrossEntropyLoss 和 softmax 激活层
pytorch 计算 CrossEntropyLoss 不需要经 softmax 层激活!
用 pytorch
实现自己的网络时,如果使用CrossEntropyLoss
我总是将网路输出经 softmax
激活层后再计算交叉熵损失是不对的。
考虑样本空间的类集合为 {0,1,2}
,网络最后一层有 3
个神经元(每个神经元激活值代表对不同类的响应强度),某个样本送入网络后的输出记为 net_out: [1,2,3]
, 该样本的真实标签为 0
.
那么交叉熵损失的手动计算结果为:
- ln 【 e1 / ( e1 + e2 + e3 ) 】 = 2.4076
- 网络输出不经 softmax 层,直接由 CrossEntropyLoss 计算交叉熵损失
输出结果为 2.4076
,与手动计算结果一致。
- 网络输出先经 softmax 层,再由 CrossEntropyLoss 计算交叉熵损失
输出结果为 1.3724
, 与手动计算结果不一致。事实上,CrossEntropyLoss()
是 softmax
和 负对数损失的结合。明确这点后,就不难明白1.374
是怎么来的了:
- ln 【 e0.09 / ( e0.09 + e0.2447 + e0.6552 ) 】 = 1.374
补充:
如果用 nn.BCELoss()
计算二进制交叉熵, 需要先将 logit
经 sigmod()
层激活再送入 nn.BCELoss()
计算损失。
__EOF__
.jpg)
本文作者:龙雪的博客
本文链接:https://www.cnblogs.com/sakura-yuki/p/13341460.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!
本文链接:https://www.cnblogs.com/sakura-yuki/p/13341460.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 地球OL攻略 —— 某应届生求职总结
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 提示词工程——AI应用必不可少的技术
· .NET周刊【3月第1期 2025-03-02】