会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
口天丶木乔
博客园
首页
新随笔
联系
订阅
管理
2018年8月30日
优化-最小化损失函数的三种主要方法:梯度下降(BGD)、随机梯度下降(SGD)、mini-batch SGD
摘要: 优化函数 损失函数 BGD 我们平时说的梯度现将也叫做最速梯度下降,也叫做批量梯度下降(Batch Gradient Descent)。 对目标(损失)函数求导 沿导数相反方向移动参数 在梯度下降中,对于参数的更新,需要计算所有的样本然后求平均,其计算得到的是一个标准梯度(这是一次迭代,我们其实需要
阅读全文
posted @ 2018-08-30 14:27 口天丶木乔
阅读(13523)
评论(0)
推荐(0)
编辑
公告