摘要: 前言 这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x(权重),使得f(x)的值最小。 本文以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。 SGD SGD指stochastic gradient descent,即随机梯度下降。是梯度下降的batch版本。 对于训 阅读全文
posted @ 2018-01-16 22:08 下路派出所 阅读(17188) 评论(0) 推荐(0) 编辑