会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
sunxing007
博客园
首页
新随笔
新文章
联系
管理
订阅
2020年5月29日
RELU
摘要: Rectified linear unit 在神经网络中,常用到的激活函数有sigmoid函数f(x)=11+exp(−x)、双曲正切函数f(x)=tanh(x),今天要说的是另外一种activation function,rectified linear function,f(x)=max(0,x
阅读全文
posted @ 2020-05-29 10:19 sunxing007
阅读(365)
评论(0)
推荐(0)
编辑
公告