文章分类 - 第四周作业
摘要:参考自:https://zhuanlan.zhihu.com/p/53010734 Non-local Neural Networks及自注意力机制思考 创新 不管是cv还是NLP任务,都需要捕获长范围依赖。在时序任务中,RNN操作是一种主要的捕获长范围依赖手段,而在CNN中是通过堆叠多个卷积模块来
阅读全文
摘要:原代码链接 结果为: 经过一周的学习与参考其他同学的代码,我对自己的代码进行了一定的修改。 添加bn层 class HybridSN(nn.Module): def __init__(self, num_classes=16): super(HybridSN, self).__init__() se
阅读全文
摘要:Strip Pooling 语义分割既需要细节信息,又需要全局信息。 全局信息:Non-local modules、self-attention 存在的问题是需要计算很大的矩阵 其他的方法: 空洞卷积 全局平均/金字塔池化 只能获得各向同性的信息,很难获得各项异性的信息。 strip pooling
阅读全文
摘要:Res2Net 在自然场景中,视觉模式经常表现多尺寸特征。如下图所示,(1)一张图片中可能会存在不同尺寸的物体。比如,沙发及被子的大小是不同的。(2)一个物体自身的上下文信息可能会覆盖比自身更大范围的区域。比如,依赖于桌子的上下文信息,进而判断桌子上的黑色斑点是杯子还是笔筒。(3)不同尺寸的感知信息
阅读全文