会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
白婷的博客
知乎: https://www.zhihu.com/people/bai-bai-87-80-88
博客园
首页
新随笔
联系
订阅
管理
05 2015 档案
随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
摘要:随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比 分类: 梯度下降 最优化2013-05-25 21:21 22978人阅读 评论(16) 收藏 举报 梯度下降最优化迭代 梯度下降(GD)是最
阅读全文
posted @
2015-05-21 10:29
白婷
阅读(228)
评论(0)
推荐(0)
编辑
公告
点击右上角即可分享