摘要: 1、《BAM: Bottleneck Attention Module》 在这篇文章中,作者提出了新的Attention模型——瓶颈注意模块,通过分离的两个路径channel和spatial得到attention map,减少计算开销和参数开销。 针对输入特征F,通过两个通道,一个是通道Mc一个是空 阅读全文
posted @ 2021-10-24 21:21 古幽月兮 阅读(178) 评论(0) 推荐(0) 编辑