随笔 - 1762  文章 - 0  评论 - 109  阅读 - 431万

BN和Relu

  • Batch normalization + ReLU

批归一化(BN)可以抑制梯度爆炸/消失并加快训练速度

原论文认为批归一化的原理是:通过归一化操作使网络的每层特征的分布尽可能的稳定,从而减少Internal Covariate Shift

relu是目前应用最为广泛的激活函数,

由于其梯度要么是1,要么是0,可以有效抑制梯度爆炸/消失

通过BN和ReLU,目前的网络已经可以达到非常深

网络越深,提取的特征往往越抽象,越具有语义信息。过渡抽象的特征可能并不适合相对简单的任务。

posted on   一杯明月  阅读(2013)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
历史上的今天:
2018-11-10 hdmap相关单词
2018-11-10 绝对误差和相对误差的定义
2018-11-10 高速公路之匝道
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示