CV基础知识点深入理解
BN实现:
根据:Pytorch Batch Normalizatin layer的坑 个人理解:pytorch中affine参数为BN层的参数γ和β是否是可学习的;
track_running_stats为是否滑动平均batch的均值和方差;model.train和mode.eval分别设置;但是在train的时候要
冻结BN及其统计数据;需要在train模式下重新设置,因为:BN层的统计数据更新是在每一次训练阶段model.train()后的forward()方法中自动实现的,而不是在梯度计算与反向传播中更新optim.step()中完成;CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
卷积层的实现:
- 卷积操作详解(推荐)
Pool池化实现:
检测中各种池化的实现(RoIPool, RoIAlign,CornerPool...):
反卷积实现:
激活函数:
C/C++基本语法学习
STL
C++ primer