会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
程序杰杰
人生在于永不停息地向前,背负悲凉,仍有勇气迎接朝阳(热爱生活,善待自己,善待他人)
博客园
首页
新随笔
联系
订阅
管理
2019年8月11日
深度学习之开端备注
摘要: Adagrad //适合稀疏样本 RMSprop//借鉴Adagrad的思想,改进使得不会出现学习率越来越低的问题 由此可见Adadelta既不需要输入学习率等参数,而且表现得非常好!!但是我试了几次,这个优化器效果极差!!还是具体问题具体分析吧 由此可见只有SGD无法逃离局部最小值,此处仍然是Ad
阅读全文
posted @ 2019-08-11 09:16 程序杰杰
阅读(177)
评论(0)
推荐(0)
编辑
公告