yangyang12138

导航

2020年2月29日 #

paddle(二)

摘要: 一、优化器 1.SGD/SGDOptimizerSGD 是实现 随机梯度下降 的一个 Optimizer 子类,是 梯度下降 大类中的一种方法。 当需要训练大量样本的时候,往往选择 SGD 来使损失函数更快的收敛。 2.Momentum/MomentumOptimizer Momentum 优化器在 阅读全文

posted @ 2020-02-29 03:02 杨杨09265 阅读(637) 评论(0) 推荐(0) 编辑