BN(batch normalization)
BN
假设一个batch中有两张图片,则两张图片输入网络后得到两个feature,分别为feature1和feature2:
如上图,每个feature都有两个channel,分别为channel1和channel2。
BN的流程:计算所有feature的channel1上的数的均值
不一定均值为零方差为一就是最好的选择,所以引入了两个可学习参数
- batch normalization:在训练时,每一个batch中求每个特征的均值和方差,然后每个特征减去对应均值和标准差。将所有batch的均值和方差做平均后的全局均值和全局方差用于预测。当然还有
两个待训练的参数,用于调整均值和方差为适合值。 - layer normalization:在训练时,对样本上各个特征求均值和方差。对于预测来说不需要全局均值和全局方差,而是计算输入样本的均值和方差就是可以了。
分类:
3_1 经典论文解析
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?