会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Phd Way-深度学习之三维重建
吾亦无他,唯手熟尔
博客园
首页
新随笔
联系
订阅
管理
2018年5月16日
《深度学习轻松学》-第8章优化与训练
摘要: 梯度下降法 前提:固定学习率,两个函数和三个变量组成 函数1:待优化函数f(x); 函数2:待优化函数f(x)的导数g(x); 变量x:函数中的变量,优化过程中会不断变化,直到它找到最小值; 变量grad:变量x点处的梯度值; 变量step:表示沿着梯度下降方法行进的步长,也被称为学习率(Learn
阅读全文
posted @ 2018-05-16 15:39 chamie
阅读(247)
评论(0)
推荐(0)
编辑