会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
dahu的菜园子
CnBlogs
Home
New Post
Contact
Admin
Subscription
2017年6月26日
深度学习相关术语
激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。
Read More
posted @ 2017-06-26 10:08 dahu1
Views(421)
Comments(0)
Diggs(0)
Edit
公告