-
第七周作业:注意力机制(Part2)
摘要:BAM: Bottleneck Attention Module 作者提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,通过两个分离的路径 channel和spatial, 得到一个Attention Map. 整体结构图如下: 作者将BAM块放在了R
阅读全文
-
第六周作业:注意力机制(Part1)
摘要:《Selective Kernel Networks》 神经科学界认为视皮层神经元的感受野大小受刺激的调节,即对不同刺激,卷积核的大小应该不同。 本篇论文中提出了一种在CNN中对卷积核的动态选择机制,该机制允许每个神经元根据输入信息的多尺度自适应地调整其感受野(卷积核)的大小。设计了一个称为选择性内
阅读全文
-
第五周作业:卷积神经网络(Part3)
摘要:MobileNetV1 MobileNetV1核心思想是采用深度可分离卷积操作。在相同的权值参数数量的情况下,相较标准卷积操作,可以减少数倍的计算量,从而达到提升网络运算速度的目的。 深度可分离卷积的构成: 常规卷积操作: 深度卷积: 与标准卷积网络不一样的是,深度卷积将卷积核拆分成为但单通道形式,
阅读全文
|