摘要: 一,随机梯度下降法(Stochastic Gradient Descent) 当训练集很大且使用普通梯度下降法(Batch Gradient Descent)时,因为每一次\(\theta\)的更新,计算微分项时把训练集的所有数据都迭代一遍,所以速度会很慢 批量梯度下降法是一次性向计算m组数据的微分 阅读全文
posted @ 2017-05-08 20:43 蚀 阅读(653) 评论(0) 推荐(0) 编辑