常见LOSS函数之Cross Entropy(交叉熵)
常见LOSS函数之Cross Entropy(交叉熵)
交叉熵是分类问题常用的损失函数。
熵
熵表示稳定性或者说惊喜度,熵越高表示越稳定,其惊喜度就越低。
示例
一般用H(p)表示熵
交叉熵
交叉熵=熵+散度
散度代表分布的重叠程度,散度越高重合度越少。
当两个分布p和q相等时,散度等于0,此时交叉熵等于熵值。
二分类问题

示例

Softmax与交叉熵
在一般的情况下,Softmax和交叉熵是一起使用的,单独使用会出现数据不稳定的情况。在pytorch中使用时,Softmax被内置在了CrossEntropy中。

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了