paddle(二)
摘要:
一、优化器 1.SGD/SGDOptimizerSGD 是实现 随机梯度下降 的一个 Optimizer 子类,是 梯度下降 大类中的一种方法。 当需要训练大量样本的时候,往往选择 SGD 来使损失函数更快的收敛。 2.Momentum/MomentumOptimizer Momentum 优化器在 阅读全文
posted @ 2020-02-29 03:02 杨杨09265 阅读(637) 评论(0) 推荐(0) 编辑