会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
黎明程序员
博客园
首页
联系
管理
订阅
2019年7月4日
深度学习面试题05:激活函数sigmod、tanh、ReLU、LeakyRelu、Relu6
摘要: 目录 为什么要用激活函数 sigmod tanh ReLU LeakyReLU ReLU6 参考资料 为什么要用激活函数 在神经网络中,如果不对上一层结点的输出做非线性转换的话,再深的网络也是线性模型,只能把输入线性组合再输出(如下图),不能学习到复杂的映射关系,因此需要使用激活函数这个非线性函数做
阅读全文
posted @ 2019-07-04 14:58 黎明程序员
阅读(18336)
评论(0)
推荐(1)
编辑
公告