摘要:
【MM2021】Cross-modality Discrepant Interaction Network for RGB-D Salient Object Detection 代码: https:// rmcong.github.io/proj_CDINet.html 1、研究动机 这是来自北京交 阅读全文
摘要:
【CVPR2022】NFormer: Robust Person Re-identification with Neighbor Transformer 代码:https://github.com/haochenheheda/NFormer 1、研究动机 这是一个来自 Amsterdam 大学 和 阅读全文
摘要:
【CVPR2022】Beyond Fixation: Dynamic Window Visual Transformer 论文:https://arxiv.org/abs/2203.12856 代码:https://github.com/pzhren/DW-ViT 个人感觉,这个论文的 idea 部 阅读全文
摘要:
【CVPR2022】CSWin Transformer: A General Vision Transformer Backbone with Cross-Shaped Windows 论文:https://arxiv.org/abs/2107.00652 代码:https://github.com 阅读全文
摘要:
【CVPR2022】AdaViT: Adaptive Vision Transformers for Efficient Image 链接:Recognitionhttps://openaccess.thecvf.com/content/CVPR2022/papers/Meng_AdaViT_Ada 阅读全文
摘要:
部分配色从知乎 marsggbo 的文章转载,同时本文也会不断更新。一个好的配色某种程度上能把翔一样的论文雕出花来,这里做个总结分享。 TIPS:想使用哪个颜色了,可以粘贴到PPT里,用吸管取色。或者用QQ截图,也能得到颜色的具体RGB值。个人感觉配色方案不需要太多,有三、五种供选择完全足够了。 论 阅读全文
摘要:
【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https:// 阅读全文
摘要:
【ARXIV2207】HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions 论文地址:https://hornet.ivg-research.xyz 代码地址:https://githu 阅读全文
摘要:
【CVPR2022】LAVT: Language-Aware Vision Transformer for Referring Image Segmentation 论文地址:https://arxiv.org/abs/2112.02244 代码地址:https://github.com/yz93/ 阅读全文
摘要:
论文:https://arxiv.org/abs/2207.02255 论文中文版:https://dengpingfan.github.io/papers/%5B2022%5D%5BECCV%5DOSFormer_Chinese.pdf 代码:https://github.com/PJLallen 阅读全文
摘要:
【ARXIV2205】Inception Transformer 论文:https://arxiv.org/abs/2205.12956 代码:https://github.com/sail-sg/iFormer 1、研究动机 这个论文的核心思想仍然是:把 attention 和 CNN 相结合(谷 阅读全文
摘要:
【CVPR2022】Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation 代码:https://github.com/facebookresearch/HRViT 核心思想和主要方法 这个论文的核心思想就是将 阅读全文
摘要:
**向孙老师致敬 ~~~ ** 【ARXIV2204】Simple Baselines for Image Restoration 代码:https://github.com/megvii-research/NAFNet 论文:https://arxiv.org/abs/2204.0467 感谢知乎 阅读全文
摘要:
【ARXIV2203】Efficient Long-Range Attention Network for Image Super-resolution 代码:https://github.com/xindongzhang/ELAN 1、研究动机 尽管Transformer已经“主宰”了CV领域,在 阅读全文
摘要:
【ARXIV2205】EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers 91/100 发布文章 gaopursuit 未选择文件 【ARXIV2205】EdgeViTs: Competin 阅读全文
摘要:
感谢B站“秋刀鱼的炼丹工坊” 的讲解,这里的解析结合了很多多的讲解。 论文:https://arxiv.org/abs/2204.07143 代码:https://github.com/SHI-Labs/Neighborhood-Attention-Transformer 这个论文非常简单,思想其实 阅读全文
摘要:
【CVPR2022】On the Integration of Self-Attention and Convolution 论文地址:https://arxiv.org/pdf/2111.14556.pdf 代码地址:https://github.com/LeapLabTHU/ACmix 卷积和自 阅读全文
摘要:
论文:https://arxiv.org/abs/2203.15332 代码:https://github.com/GeWu-Lab/OGM-GE_CVPR2022 这是一个来自人民大学GeWu-Lab的工作,被CVPR2022接收并选为Oral Presentation,相关代码已经开源。 1、研 阅读全文
摘要:
论文:https://arxiv.org/pdf/2204.02557.pdf 代码:https://github.com/PaddlePaddle/PaddleClas 论文作者谌强在ReadPaper网站上有解读,推荐大家阅读:https://readpaper.com/paper/669120 阅读全文
摘要:
论文:https://arxiv.org/abs/2204.03883 代码:https://github.com/IDKiro/DehazeFormer 1、研究动机 作者提出了 DehazeFormer 用于图像去雾,灵感来自Swin Transformer ,论文中有趣的地方在于 reflec 阅读全文
摘要:
1、研究动机 当前的语义分割主要利用RGB图像,加入多源信息作为辅助(depth, Thermal等)可以有效提高语义分割的准确率,即融合多模态信息可以有效提高准确率。当前方法主要包括两种: Input fusion: 如下图a所示,将RGB和D数据拼接在一起,使用一个网络提取特征。 Feature 阅读全文
摘要:
1、Motivation 作者指出当前视觉Transformer 模型中的痛点在于:huge resource demands。为了解决这个问题,作者提出了 Separable Vision Transformer (SepViT),整体架构如下图所示。 包括下面三个贡献: Depthwise se 阅读全文
摘要:
论文:https://readpaper.com/paper/633541619879256064 代码:https://github.com/Chenglin-Yang/LVT 1、研究动机 尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力 阅读全文
摘要:
论文:https://openreview.net/forum?id=_WnAQKse_uK 代码:https://github.com/Annbless/ViTAE 1、Motivation 这个论文的思想非常简单:将CNN和 VIT 结合,浅层用CNN,深层用VIT。 同时,在attention 阅读全文
摘要:
20220222 今天是20220222超级有爱日,新学期第一次集体跑步~考研成绩出了,几家欢乐几家愁~刚不可久,柔不可守,其实都是殊途同归,或早或晚,大家都将拥有平凡但绚丽的人生 20220219 心血来潮和杨总吃了个烤肉自助,一会儿就吃饱了,看着旁边年轻人热火朝天一盘盘大肉吃的美滋滋,真心羡慕~ 阅读全文