会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
一扇窗
make something great ! 花苦功夫扎扎实实把每一个细节搞清楚!
博客园
首页
新随笔
联系
订阅
管理
2019年1月8日
神经网络中Epoch、Iteration、Batchsize相关理解
摘要: batch 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient desce
阅读全文
posted @ 2019-01-08 09:06 dgi
阅读(3531)
评论(0)
推荐(0)
编辑
公告