会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
有理想
博客园
首页
新随笔
联系
订阅
管理
2019年5月18日
Adagrad和Stochastic梯度下降
摘要: 本次学习来自李宏毅老师的机器学习视频 首先梯度下降法: 这时候要小心调你的学习率: 做梯度下降的时候你应该把上方的图画出来,知道曲线的走势,才好调学习率。 但调学习率很麻烦,有没有一些自动的办法来帮助我们调学习率呢? 最基本的原则是随着参数的更新让学习率变得越来越小。为什么会这样呢?因为当你在开始的
阅读全文
posted @ 2019-05-18 21:27 RamboBai
阅读(623)
评论(0)
推荐(0)
编辑
公告