2019年3月18日

gradient descent

摘要: 梯度下降的两种参数更新方式 1.Batch gradient descent 批梯度下降 遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数就要把数据集里面的所有样本都看一遍,计算量开销大,计算速度慢。 2.Stochastic gradient descen 阅读全文

posted @ 2019-03-18 21:08 OAREII 阅读(174) 评论(0) 推荐(0) 编辑

导航