会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Democracy and Science
博客园
首页
新随笔
联系
管理
订阅
2017年5月17日
梯度下降做做优化(batch gd、sgd、adagrad )
摘要: 首先说明公式的写法 上标代表了一个样本,下标代表了一个维度; 然后梯度的维度是和定义域的维度是一样的大小; 1、batch gradient descent: 假设样本个数是m个,目标函数就是J(theta),因为theta 参数的维度是和 单个样本 x(i) 的维度是一致的,theta的维度j t
阅读全文
posted @ 2017-05-17 12:54 随遇而安jason
阅读(2453)
评论(0)
推荐(1)
编辑
公告