06 2021 档案

摘要:Group-CAM: Group Score-Weighted Visual Explanations for Deep Convolutional Networks Abstract 最近,深度卷积神经网络的解释引起了越来越多的关注,因为它有助于理解网络的内部机制和网络做出特定决策的原因。在计算机 阅读全文
posted @ 2021-06-30 16:55 慢行厚积 阅读(1728) 评论(0) 推荐(0) 编辑
摘要:RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for Image Recognition Abstract 我们提出了RepMLP,一个多层感知器风格的图像识别神经网络构建块,它由一系列全连接(FC)层组成。与卷 阅读全文
posted @ 2021-06-25 10:25 慢行厚积 阅读(1056) 评论(0) 推荐(0) 编辑
摘要:Do You Even Need Attention? A Stack of Feed-Forward Layers Does Surprisingly Well on ImageNet Abstract 视觉transformers在图像分类和其他视觉任务上的强大性能通常归因于其multi-hea 阅读全文
posted @ 2021-06-17 10:39 慢行厚积 阅读(297) 评论(0) 推荐(0) 编辑
摘要:Beyond Self-attention: External Attention using Two Linear Layers for Visual Tasks Abstract 注意力机制,尤其是自注意力(self-attention),在视觉任务的深度特征表征中起着越来越重要的作用。自注意力 阅读全文
posted @ 2021-06-17 10:37 慢行厚积 阅读(1390) 评论(0) 推荐(0) 编辑
摘要:当报类似下面的错误时: ERROR: mxnet_cu100-1.8.0.post0-py2.py3-none-manylinux2014_x86_64.whl is not a supported wheel on this platform 可使用下面的命令去查看pip支持下载的版本: >>> 阅读全文
posted @ 2021-06-15 16:20 慢行厚积 阅读(632) 评论(0) 推荐(0) 编辑
摘要:Rethinking “Batch” in BatchNorm Abstract BatchNorm是现代卷积神经网络的重要组成部分。它对“batches”而不是单个样本进行操作的独特特性,引入了与深度学习中大多数其他操作显著不同的行为。因此,它会导致许多隐藏的警告,可能以微妙的方式对模型的性能产生 阅读全文
posted @ 2021-06-04 11:45 慢行厚积 阅读(981) 评论(0) 推荐(1) 编辑
摘要:What Deep CNNs Benefit from Global Covariance Pooling: An Optimization Perspective Abstract 最近的研究表明,全局协方差池化(global covariance pooling, GCP)能够提高深度卷积神经网 阅读全文
posted @ 2021-06-01 16:03 慢行厚积 阅读(945) 评论(0) 推荐(0) 编辑