摘要: 理解 mini-batch 梯度下降法( Understanding mini-batch gradient descent) 使用 batch 梯度下降法时,每次迭代你都需要历遍整个训练集,可以预期每次迭代成本都会下降,所以如果成本函数J是迭代次数的一个函数,它应该会随着每次迭代而减少,如果在某次 阅读全文
posted @ 2018-09-14 21:19 刘-皇叔 阅读(5013) 评论(0) 推荐(0) 编辑