摘要: "SGD类" "Nesterov Accelerated Gradient类" "AdaGrad类" "RMSProp类" "AdaDelta类" "Adam类" SGD简介 caffe中的SGDSolver类中实现了带动量的梯度下降法,其原理如下,$lr$为学习率,$m$为动量参数。 1. 计算新 阅读全文
posted @ 2019-12-29 18:01 Rule110 阅读(337) 评论(0) 推荐(1) 编辑