会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
tatarget
Talk is cheap,show me the code.
博客园
首页
新随笔
联系
订阅
管理
2017年11月10日
【转载】softmax的log似然代价函数(求导过程)
摘要: 全文转载自: softmax的log似然代价函数(公式求导) 在人工神经网络(ANN)中,Softmax通常被用作输出层的激活函数。这不仅是因为它的效果好,而且因为它使得ANN的输出值更易于理解。同时,softmax配合log似然代价函数,其训练效果也要比采用二次代价函数的方式好。 1. softm
阅读全文
posted @ 2017-11-10 16:27 MicN
阅读(942)
评论(0)
推荐(0)
编辑