会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
聚沙成塔,水滴石穿
博客园
首页
新随笔
联系
订阅
管理
2020年1月16日
从头学pytorch(十九):批量归一化batch normalization
摘要: 批量归一化 论文地址: 批量归一化基本上是现在模型的标配了 . 说实在的,到今天我也没搞明白batch normalize能够使得模型训练更稳定的底层原因,要彻底搞清楚,涉及到很多凸优化的理论,需要非常扎实的数学基础才行. 目前为止,我理解的批量归一化即把每一层输入的特征,统一变换到统一的尺度上来,
阅读全文
posted @ 2020-01-16 16:38 core!
阅读(4092)
评论(0)
推荐(2)
编辑
公告