会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
刘皇叔
接着奏乐,接着舞!
博客园
首页
新随笔
联系
订阅
管理
2018年9月14日
2-2 理解 mini-batch 梯度下降法
摘要: 理解 mini-batch 梯度下降法( Understanding mini-batch gradient descent) 使用 batch 梯度下降法时,每次迭代你都需要历遍整个训练集,可以预期每次迭代成本都会下降,所以如果成本函数J是迭代次数的一个函数,它应该会随着每次迭代而减少,如果在某次
阅读全文
posted @ 2018-09-14 21:19 刘-皇叔
阅读(5013)
评论(0)
推荐(0)
编辑
公告