会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
那一抹风
博客园
首页
新随笔
联系
订阅
管理
2018年2月20日
《Andrew Ng深度学习》笔记4
摘要: 浅层神经网络 1.激活函数 在神经网络中,激活函数有很多种,常用的有sigmoid()函数,tanh()函数,ReLu函数(修正单元函数),泄露ReLu(泄露修正单元函数)。它们的图形如下: sigmoid()激活函数,范围是y属于{0, 1},所以0<= y <=1。但是sigmoid函数平均收敛
阅读全文
posted @ 2018-02-20 21:26 那一抹风
阅读(417)
评论(0)
推荐(0)
编辑
公告