会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
keep&learning
博客园
首页
新随笔
联系
订阅
管理
2020年11月1日
激活函数——Sigmoid、tanh、ReLU、Leaky ReLU、ELU
摘要: 1、神经网络为什么引入激活函数? 如果不引入激活函数,神经网络的每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,与没有隐藏层的效果相当,这种情况就是最原始的感知机(Perceptron)。 因此,引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性
阅读全文
posted @ 2020-11-01 18:55 keep&learning
阅读(1190)
评论(0)
推荐(0)
编辑
公告