会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
rin_riceroll
博客园
首页
博问
闪存
新随笔
订阅
管理
2020年8月11日
【摘】关于神经网络中relu和sigmoid的选择
摘要: ReLU比Sigmoid效果好的理由: https://blog.csdn.net/ljyljyok/article/details/88394212 Relu的gradient大多数情况下是常数,有助于解决深层网络的收敛问题。Relu的另一个优势是在生物上的合理性,它是单边的,相比sigmoid和
阅读全文
posted @ 2020-08-11 18:07 rin_riceroll
阅读(665)
评论(0)
推荐(0)
编辑