会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
可可心心宝贝
博客园
首页
新随笔
联系
订阅
管理
2018年9月30日
深度学习基础系列(三)| sigmoid、tanh和relu激活函数的直观解释
摘要: 常见的激活函数有sigmoid、tanh和relu三种非线性函数,其数学表达式分别为: sigmoid: y = 1/(1 + e-x) tanh: y = (ex - e-x)/(ex + e-x) relu: y = max(0, x) 其代码实现如下: 其图形解释如下: 相较而言,在隐藏层,t
阅读全文
posted @ 2018-09-30 16:13 可可心心
阅读(31169)
评论(1)
推荐(0)
编辑
公告