会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
摸鱼匠与炼丹侠
博客园
首页
新随笔
联系
订阅
管理
2020年3月11日
mini batch的作用
摘要: 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度
阅读全文
posted @ 2020-03-11 12:57 啵仔
阅读(1490)
评论(0)
推荐(0)
编辑
公告