Fork me on GitHub

CV基础知识点深入理解

BN实现:

根据:Pytorch Batch Normalizatin layer的坑 个人理解:pytorch中affine参数为BN层的参数γβ是否是可学习的;track_running_stats为是否滑动平均batch的均值和方差;model.train和mode.eval分别设置;但是在train的时候要冻结BN及其统计数据;需要在train模式下重新设置,因为:BN层的统计数据更新是在每一次训练阶段model.train()后的forward()方法中自动实现的,而不是在梯度计算与反向传播中更新optim.step()中完成;CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

卷积层的实现:

Pool池化实现:

检测中各种池化的实现(RoIPool, RoIAlign,CornerPool...):

反卷积实现:

激活函数:

posted @   ranjiewen  阅读(1095)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
点击右上角即可分享
微信分享提示