摘要: 转自https://www.cnblogs.com/denny402/p/5074212.html 上文提到,到目前为止,caffe总共提供了六种优化方法: Stochastic Gradient Descent (type: "SGD"), AdaDelta (type: "AdaDelta"), 阅读全文
posted @ 2018-01-18 16:17 木易修 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 转自https://www.cnblogs.com/maohai/p/6453417.html 一、深度学习中常用的调节参数 本节为笔者上课笔记(CDA深度学习实战课程第一期) 1、学习率 步长的选择:你走的距离长短,越短当然不会错过,但是耗时间。步长的选择比较麻烦。步长越小,越容易得到局部最优化( 阅读全文
posted @ 2018-01-18 14:33 木易修 阅读(1103) 评论(0) 推荐(0) 编辑