会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
你的雷哥
博客园
首页
新随笔
联系
订阅
管理
2019年11月18日
吴恩达《深度学习》第二门课(2)优化算法
摘要: 2.1Mini-batch梯度下降 (1)例如有500万个训练样本,这时可以每1000个组成一个Mini-batch,共用5000个Mini-batch。主要是为了加快训练。 (2)循环完所有的训练样本称为(1 epoch)。 (3)使用大括号X{t},Y{t}表示一个Mini-batch。(小括号
阅读全文
posted @ 2019-11-18 22:36 你的雷哥
阅读(334)
评论(0)
推荐(0)
编辑
公告