会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
是小叶呀
博客园
首页
新随笔
联系
订阅
管理
2022年3月21日
优化器-SGD、SGD with momentum、Adagrad、RMSProp、Adam
摘要: 一、SGD(梯度下降) 在多变函数中,梯度是一个方向,梯度的方向指出了函数在给定点上升最快的方向,或者说指引了函数值增大的方向,因此我们只要考虑往梯度的反方向走,就至少能走到极小值,可能能走到全局最小值。 二、SGD with momentum(动量法:梯度累加) 动量累加:震荡方向的梯度相互抵消,
阅读全文
posted @ 2022-03-21 20:32 NLP的小Y
阅读(633)
评论(0)
推荐(0)
编辑
公告
/*粒子线条,鼠标移动会以鼠标为中心吸附的特效*/