摘要:
BGD(Batch gradient descent)批量梯度下降法:每次迭代使用所有的样本(样本量小) Mold 一直在更新 SGD(Stochastic gradientdescent)随机梯度下降法:每次迭代使用一组样本(样本量大)Mold 把一批数据过完才更新一次 针对BGD算法训练速度过慢 阅读全文
摘要:
最陡下降法(steepest descent method)又称梯度下降法(英语:Gradient descent)是一个一阶最优化算法。 函数值下降最快的方向是什么?沿负梯度方向 d=−gk 阅读全文