会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Uriel-w
博客园
首页
新随笔
联系
订阅
管理
2022年5月25日
mini batch
摘要: 因为梯度更新的时候有三种方式: 第一种是batch gradient descent(批梯度下降),这种方式模型遍历所有数据后计算损失函数然后更新梯度,这样计算过于复杂,所以引出第二种。 第二种是stochastic gradient descent(随机梯度下降),就是每读取一个数据就计算损失函数
阅读全文
posted @ 2022-05-25 15:08 Uriel-w
阅读(98)
评论(0)
推荐(0)
编辑
公告