会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
明也无涯
不积跬步无以至千里
首页
联系
订阅
管理
2017年2月18日
激活函数(ReLU, Swish, Maxout)
摘要: 神经网络中使用激活函数来加入非线性因素,提高模型的表达能力。 本文对ReLU及其变种,Swish,Maxout,Sigmoid等做了介绍.
阅读全文
posted @ 2017-02-18 13:26 康行天下
阅读(109482)
评论(10)
推荐(22)
编辑
公告