Processing math: 80%

神经网络学习笔记 - 损失函数的定义和微分证明

神经网络学习笔记 - 损失函数的定义和微分证明

损失函数 Loss function (cross entropy loss)

损失函数,反向传播和梯度计算构成了循环神经网络的训练过程。

激活函数softmax和损失函数会一起使用。
激活函数会根据输入的参数(一个矢量,表示每个分类的可能性),计算每个分类的概率(0, 1)。
损失函数根据softmax的计算结果ˆy和期望结果y,根据交叉熵方法(cross entropy loss) 可得到损失L

cross entropy loss函数

Lt(yt,^yt)=ytlog^ytL(y,ˆy)=tytlog^ytLtzt=^ytytwherezt=stV^yt=softmax(zt)yt : for training data x, the expected result y at time t. which are from training data

证明

Ltzt=(kyklog^yk)zt=kyklog^ykzt=kyk1^yk^ykzt=(yt1^yt^ytzt)(ktyk1^yk^ykzt)

参照

posted @   SNYang  阅读(6334)  评论(0编辑  收藏  举报
编辑推荐:
· ASP.NET Core 模型验证消息的本地化新姿势
· 对象命名为何需要避免'-er'和'-or'后缀
· SQL Server如何跟踪自动统计信息更新?
· AI与.NET技术实操系列:使用Catalyst进行自然语言处理
· 分享一个我遇到过的“量子力学”级别的BUG。
阅读排行:
· 为什么AI教师难以实现
· AI Agent爆火后,MCP协议为什么如此重要!
· Draw.io:你可能不知道的「白嫖级」图表绘制神器
· dotnet 源代码生成器分析器入门
· ASP.NET Core 模型验证消息的本地化新姿势
点击右上角即可分享
微信分享提示