会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
人可土申
博客园
首页
新随笔
联系
管理
订阅
10 2016 档案
DeepLearning 代码解析--随机梯度下降SGD
摘要:1、梯度下降(gradient decent) 梯度下降方法是我们求最优化的常用方法。常用的有批量梯度下降和随机梯度下降。 对于一个目标函数;我们目的min(J(Θ)), α是learningrate,表示每次向梯度负方向下降的步长,经过一次次迭代,向最优解收敛,如下图所示。 根据数据量的大小,我们
阅读全文
posted @
2016-10-02 21:25
人可土申
阅读(2980)
评论(0)
推荐(0)
公告