深度学习中的batch含义

转自https://www.zhihu.com/question/27700702/answer/941067214

这里直接将CNN常见到的Epoch,iteration和batch_size一起介绍一下吧

Epoch, Batch Size 和 Iteration

  举个例子:将10kg的面粉使用面条加工机(每次只能处理2kg),加工成10kg的面条。首先得把10kg面粉分成5份2kg的面粉,然后放入机器加工,经过5次,可以将这10kg面粉首次加工成面条,但是现在的面条肯定不好吃,因为不劲道,于是把10kg面条又放进机器再加工一遍,还是每次只处理2kg,处理5次,现在感觉还行,但是不够完美;于是又重复了一遍:将10kg上次加工好的面条又放进机器,每次2kg,加工5次,最终成型了,完美了,结束了。那么到底重复加工几次呢?只有有经验的师傅才知道。

这就形象地说明:Epoch就是10斤面粉被加工的次数(上面的3次);Batch Size就是每份的数量(上面的2kg),Iteration就是将10kg面粉加工完一次所使用的循环次数(上面的5次)。显然 1个epoch = BatchSize * Iteration

 

另一个知乎答案:https://www.zhihu.com/question/286310691/answer/484539070

posted on 2021-10-12 13:46  静静的白桦林_andy  阅读(400)  评论(0编辑  收藏  举报

导航