摘要: 新神经网络架构设计的最新进展之一是注意力模块的引入。首次出现在在NLP 上的注意力背后的主要思想是为数据的重要部分添加权重。在卷积神经网络的情况下,第一个注意机制是在卷积块注意模型中提出的。其中注意机制分为两个部分:通道注意模块和空间注意模块。 空间注意模块通过将图像分解为两个通道,即最大池化和跨通 阅读全文
posted @ 2022-01-31 10:35 deephub 阅读(66) 评论(0) 推荐(0) 编辑