随笔 - 402  文章 - 1 评论 - 20 阅读 - 113万
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

随笔分类 -  优化算法

梯度下降,Adam算法等
《深度学习轻松学》-第8章优化与训练
摘要:梯度下降法 前提:固定学习率,两个函数和三个变量组成 函数1:待优化函数f(x); 函数2:待优化函数f(x)的导数g(x); 变量x:函数中的变量,优化过程中会不断变化,直到它找到最小值; 变量grad:变量x点处的梯度值; 变量step:表示沿着梯度下降方法行进的步长,也被称为学习率(Learn 阅读全文
posted @ 2018-05-16 15:39 chamie 阅读(247) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示