会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
mashuai 的博客(base成都)
学习,记录,并祝愿家人都健康平安
博客园
首页
新随笔
联系
订阅
管理
2018年4月19日
Coursera, Deep Learning 1, Neural Networks and Deep Learning - week3, Neural Networks Basics
摘要: NN representation 这一课主要是讲3层神经网络 下面是常见的 activation 函数.sigmoid, tanh, ReLU, leaky ReLU. Sigmoid 只用在输出0/1 时候的output layer, 其他情况基本不用,因为tanh 总是比sigmoid 好.
阅读全文
posted @ 2018-04-19 23:14 mashuai_191
阅读(392)
评论(0)
推荐(0)
编辑
公告