会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Matrix
两个经典问题
为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果?
为什么在RNN中,将tanh换成ReLU不能取得类似的效果?
链接
posted on
2019-05-19 21:59
TMatrix52
阅读(
79
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部
公告
导航
博客园
首页
新随笔
联系
订阅
管理