会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
布兰姥爷
博客园
首页
新随笔
管理
2019年10月27日
【零基础】神经网络优化之mini-batch
摘要: 一、前言 回顾一下前面讲过的两种解决过拟合的方法: 1)L0、L1、L2:在向前传播、反向传播后面加个小尾巴 2)dropout:训练时随机“删除”一部分神经元 本篇要介绍的优化方法叫mini-batch,它主要解决的问题是:实际应用时的训练数据往往都太大了,一次加载到电脑里可能内存不够,其次运行速
阅读全文
posted @ 2019-10-27 23:12 布兰姥爷
阅读(8321)
评论(0)
推荐(1)
编辑
公告