12 2020 档案

摘要:Learning to Zoom: a Saliency-Based Sampling Layer for Neural Networks Abstract 我们为卷积神经网络引入了一个基于显著性的扭曲(distortion)层,这有助于改善给定任务的输入数据的空间采样。我们的可微层可以作为预处理块 阅读全文
posted @ 2020-12-31 18:30 慢行厚积 阅读(1019) 评论(0) 推荐(2) 编辑
摘要:参考代码 https://github.com/Yao-DD/S3N Selective Sparse Sampling for Fine-grained Image Recognition Abstract 细粒度识别提出了一个独特的挑战,即在相当大的类间差异下捕捉细微的类内差异(如鸟类的喙)。传 阅读全文
posted @ 2020-12-30 18:36 慢行厚积 阅读(2529) 评论(0) 推荐(1) 编辑
摘要:Adaptive Variance Based Label Distribution Learning For Facial Age Estimation Abstract 从单个人脸图像中估计年龄是计算机视觉中一个经典且具有挑战性的课题。其最棘手的问题之一是标签模糊,即同一个人的相邻年龄的人脸图像 阅读全文
posted @ 2020-12-28 19:03 慢行厚积 阅读(2070) 评论(0) 推荐(0) 编辑
摘要:https://github.com/frgfm/torch-cam SS-CAM: Smoothed Score-CAM for Sharper Visual Feature Localization Abstract 由于深度卷积神经网络在high-risk环境中的应用,对其潜在机制的解释已成为 阅读全文
posted @ 2020-12-15 15:43 慢行厚积 阅读(1756) 评论(0) 推荐(0) 编辑
摘要:https://github.com/haofanwang/Score-CAM Score-CAM: Score-Weighted Visual Explanations for Convolutional Neural Networks Abstract 近年来,卷积神经网络的内部机制以及网络做出 阅读全文
posted @ 2020-12-11 17:51 慢行厚积 阅读(4636) 评论(0) 推荐(0) 编辑
摘要:https://arxiv.org/abs/1711.07971 https://github.com/AlexHex7/Non-local_pytorch Non-local Neural Networks Abstract 卷积操作和循环操作都是一次处理一个局部邻域的building块。在本文中 阅读全文
posted @ 2020-12-10 17:02 慢行厚积 阅读(671) 评论(0) 推荐(0) 编辑
摘要:Deep Networks with Internal Selective Attention through Feedback Connections Abstract 传统的卷积神经网络是静止的、前馈(feedforward)的。他们在评估过程中既不改变参数,也不使用从高层到低层的反馈。然而,真 阅读全文
posted @ 2020-12-10 16:59 慢行厚积 阅读(387) 评论(0) 推荐(0) 编辑
摘要:Aggregated Residual Transformations for Deep Neural Networks Abstract 我们提出了一个简单的、高度模块化的图像分类网络架构。我们的网络是通过重复一个构建块来构建的,该构建块聚合了一组具有相同拓扑结构的转换(transformatio 阅读全文
posted @ 2020-12-10 16:56 慢行厚积 阅读(679) 评论(0) 推荐(0) 编辑
摘要:CBAM: Convolutional Block Attention Module Abstract 我们提出了卷积块注意模块(CBAM),一个简单而有效的用于前馈卷积神经网络的注意力模块。给定中间特征图,我们的模块依次推导出沿通道和空间两个独立维度的注意力map,然后将注意力map乘到输入特征图 阅读全文
posted @ 2020-12-10 16:54 慢行厚积 阅读(1442) 评论(0) 推荐(0) 编辑
摘要:Squeeze-and-Excitation Networks Abstract 卷积神经网络(CNNs)的核心构件是卷积运算符,它使网络能够通过在每一层的局部接受域内融合空间和信道信息来构建信息特征。大量的先前研究已经调查了这种关系的空间组成部分,试图通过提高整个特征层次的空间编码质量来增强CNN 阅读全文
posted @ 2020-12-10 16:52 慢行厚积 阅读(722) 评论(0) 推荐(0) 编辑
摘要:Multi-Context Attention for Human Pose Estimation abstract 在本文中,我们提出将卷积神经网络与多上下文注意机制结合到一个端到端人体姿态估计框架中。我们采用堆叠的hourglass网络,以不同语义的多分辨率特征生成注意力maps。利用条件随机场 阅读全文
posted @ 2020-12-10 16:49 慢行厚积 阅读(1108) 评论(0) 推荐(0) 编辑
摘要:https://arxiv.org/pdf/1704.06904.pdf https://github.com/fwang91/residual-attention-network https://github.com/tengshaofeng/ResidualAttentionNetwork-py 阅读全文
posted @ 2020-12-10 16:45 慢行厚积 阅读(1106) 评论(0) 推荐(0) 编辑
摘要:https://github.com/facebookresearch/multigrain MultiGrain: a unified image embedding for classes and instances Abstract MultiGrain是一种网络架构,产生的紧凑向量表征,既适 阅读全文
posted @ 2020-12-10 16:44 慢行厚积 阅读(1698) 评论(0) 推荐(0) 编辑
摘要:https://github.com/frgfm/torch-cam Smooth Grad-CAM++: An Enhanced Inference Level Visualization Technique for Deep Convolutional Neural Network Models 阅读全文
posted @ 2020-12-10 16:36 慢行厚积 阅读(3531) 评论(0) 推荐(0) 编辑
摘要:https://github.com/adityac94/Grad_CAM_plus_plus https://github.com/frgfm/torch-cam Grad-CAM++: Improved Visual Explanations for Deep Convolutional Net 阅读全文
posted @ 2020-12-10 16:35 慢行厚积 阅读(4866) 评论(0) 推荐(0) 编辑
摘要:Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization Abstract 我们提出了一种技术,用于为基于卷积神经网络(CNN)的大型模型的决策生成“可视化解释”,使它们更加透明和可解释。 我们的 阅读全文
posted @ 2020-12-03 17:26 慢行厚积 阅读(7397) 评论(0) 推荐(0) 编辑
摘要:https://github.com/neverUseThisName/Decorrelated-Adversarial-Learning Decorrelated Adversarial Learning for Age-Invariant Face Recognition Abstract 人们 阅读全文
posted @ 2020-12-02 18:24 慢行厚积 阅读(1079) 评论(0) 推荐(0) 编辑