会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Physcalの大魔導書
某HFUT的蒟蒻,ICT/VIPL的直博狗,SeetaTech的码农,还是当大魔导师好了(= ̄ω ̄=)。
首页
新随笔
管理
2015年4月24日
ReLu(Rectified Linear Units)激活函数
摘要: 论文参考:Deep Sparse Rectifier Neural Networks(很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoi...
阅读全文
posted @ 2015-04-24 12:57 Physcal
阅读(231150)
评论(8)
推荐(20)
编辑
公告