摘要: 优化函数 损失函数 BGD 我们平时说的梯度现将也叫做最速梯度下降,也叫做批量梯度下降(Batch Gradient Descent)。 对目标(损失)函数求导 沿导数相反方向移动参数 在梯度下降中,对于参数的更新,需要计算所有的样本然后求平均,其计算得到的是一个标准梯度(这是一次迭代,我们其实需要 阅读全文
posted @ 2018-08-30 14:27 口天丶木乔 阅读(13523) 评论(0) 推荐(0) 编辑