会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
kamekin
博客园
首页
新随笔
联系
订阅
管理
2018年12月9日
deeplearning.ai课程学习(3)
摘要: 第三周:浅层神经网络(Shallow neural networks) 1、激活函数(Activation functions) sigmoid函数和tanh函数两者共同的缺点是,在z特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于0,导致降低梯度下降的速度。 Relu
阅读全文
posted @ 2018-12-09 22:08 kamekin
阅读(298)
评论(0)
推荐(0)
编辑
公告