摘要: 批量梯度下降法BGD 通过对所有的样本的计算来求解梯度的方向 小批量梯度下降法MBGD Minibatch 通过对一部分个样本 (batch_size个) 的计算来求解梯度的方向 增大batch_size: 内存利用率提高,但可能遇到内存不足的问题 矩阵乘法的并行化效率提高 跑完一次全数据集所需的迭 阅读全文
posted @ 2018-08-11 17:28 cbattle 阅读(159) 评论(0) 推荐(0) 编辑