会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Manuel
博客园
首页
新随笔
联系
订阅
管理
2019年6月17日
优化器,SGD+Momentum;Adagrad;RMSProp;Adam
摘要: Optimization 随机梯度下降(SGD): 当损失函数在一个方向很敏感在另一个方向不敏感时,会产生上面的问题,红色的点以“Z”字形梯度下降,而不是以最短距离下降;这种情况在高维空间更加普遍。 SGD的另一个问题:损失函数容易卡在局部最优或鞍点(梯度为0)不再更新。在高维空间鞍点更加普遍 当模
阅读全文
posted @ 2019-06-17 17:38 Manuel
阅读(691)
评论(0)
推荐(0)
编辑