06 2021 档案
摘要:Group-CAM: Group Score-Weighted Visual Explanations for Deep Convolutional Networks Abstract 最近,深度卷积神经网络的解释引起了越来越多的关注,因为它有助于理解网络的内部机制和网络做出特定决策的原因。在计算机
阅读全文
摘要:RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for Image Recognition Abstract 我们提出了RepMLP,一个多层感知器风格的图像识别神经网络构建块,它由一系列全连接(FC)层组成。与卷
阅读全文
摘要:Do You Even Need Attention? A Stack of Feed-Forward Layers Does Surprisingly Well on ImageNet Abstract 视觉transformers在图像分类和其他视觉任务上的强大性能通常归因于其multi-hea
阅读全文
摘要:Beyond Self-attention: External Attention using Two Linear Layers for Visual Tasks Abstract 注意力机制,尤其是自注意力(self-attention),在视觉任务的深度特征表征中起着越来越重要的作用。自注意力
阅读全文
摘要:当报类似下面的错误时: ERROR: mxnet_cu100-1.8.0.post0-py2.py3-none-manylinux2014_x86_64.whl is not a supported wheel on this platform 可使用下面的命令去查看pip支持下载的版本: >>>
阅读全文
摘要:Rethinking “Batch” in BatchNorm Abstract BatchNorm是现代卷积神经网络的重要组成部分。它对“batches”而不是单个样本进行操作的独特特性,引入了与深度学习中大多数其他操作显著不同的行为。因此,它会导致许多隐藏的警告,可能以微妙的方式对模型的性能产生
阅读全文
摘要:What Deep CNNs Benefit from Global Covariance Pooling: An Optimization Perspective Abstract 最近的研究表明,全局协方差池化(global covariance pooling, GCP)能够提高深度卷积神经网
阅读全文