会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
给未来的自己
博客园
首页
新随笔
联系
订阅
管理
2017年5月8日
机器学习公开课笔记第九周之大数据梯度下降算法
摘要: 一,随机梯度下降法(Stochastic Gradient Descent) 当训练集很大且使用普通梯度下降法(Batch Gradient Descent)时,因为每一次\(\theta\)的更新,计算微分项时把训练集的所有数据都迭代一遍,所以速度会很慢 批量梯度下降法是一次性向计算m组数据的微分
阅读全文
posted @ 2017-05-08 20:43 蚀
阅读(653)
评论(0)
推荐(0)
编辑
公告