摘要: 在本文中作者提出了一个轻量、通用的attention 模块(CBAM),可以同时做到通道(Channel Attentation Module)和空间上(Spatial Attention Module)的注意力,其中通道上的注意力主要是增强"what", 而空间上的注意力主要是增强‘where’。 阅读全文
posted @ 2020-05-07 10:51 zhangyong7630 阅读(663) 评论(0) 推荐(1) 编辑