会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
大强广坤
博客园
首页
新随笔
联系
管理
订阅
2019年10月9日
深度学习中的batch、epoch、iteration的含义
摘要: 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下
阅读全文
posted @ 2019-10-09 11:06 大强广坤
阅读(541)
评论(1)
推荐(0)
编辑
公告