会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
凝静志远
不积跬步,无以至千里;不积小流,无以成江海。
博客园
首页
新随笔
联系
订阅
管理
2016年12月25日
神经网络与深度学习(5):梯度消失问题
摘要: 本文总结自《Neural Networks and Deep Learning》第5章的内容。 问题引入 随着隐藏层数目的增加,分类准确率反而下降了。为什么? 消失的梯度问题(The vanishing gradient problem) 先看一组试验数据,当神经网络在训练过程中, 随epoch增加
阅读全文
posted @ 2016-12-25 22:59 凝静志远
阅读(21846)
评论(0)
推荐(1)
编辑
公告