会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
DemonSlayer
花无凋零之日,意无传递之时,爱情亘古不变,紫罗兰永世长存。
博客园
首页
新随笔
联系
订阅
管理
2021年2月1日
博雅大数据机器学习十讲第七讲
摘要: $batch$和$mini-batch$梯度下降 $batch$梯度下降:使用全部训练集样本,计算代价太高$(n\sim10^6)$ $mini-batch$梯度下降:随机采样一个子集$(m\sim102或103)$ \[ \nabla J(\theta)=\frac{1}{m}\sum^m_{j=
阅读全文
posted @ 2021-02-01 23:13 DemonSlayer
阅读(124)
评论(0)
推荐(0)
编辑
公告