会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
YeZzz
博客园
首页
新随笔
联系
管理
订阅
2020年7月16日
【机器学习】Softmax及求导
摘要: Softmax softmax可以将经交叉熵损失函数的输出都映射到 0 到 1 间,且各分类累和为 1。符合概率分布。 假设共有 n 个输出 [Z1,...,Zn],对第 i 个元素 Zi 的softmax的计算公式:Si = ezi / sum(ezn) softmax的反向传播求导过程: 博客园
阅读全文
posted @ 2020-07-16 11:47 YeZzz
阅读(668)
评论(0)
推荐(0)
编辑
公告