11 2022 档案
摘要:【ECCV2022】DaViT: Dual Attention Vision Transformers 代码:https://github.com/dingmyu/davit 这个论文想法很自然也容易想到。Transformer都是在处理 PxC 二维的数据,其中 P 是token 的数量,C是特征
阅读全文
摘要:【ARXIV2207】LightViT: Towards Light-Weight Convolution-Free Vision Transformers 论文地址:https://arxiv.org/abs/2207.05557 代码地址:https://github.com/hunto/Lig
阅读全文
摘要:1、Motivation 这个论文来自于清华大学鲁继文老师团队,核心是 attention 和 MLP-mixer 思想的结合。 建议用2分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021
阅读全文
摘要:用5分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021 CNN以及 attention 在视觉任务上取得非常好的性能,但是我们真的需要这么复杂的网络结构吗?MLP 这种简单的结构是否也能够取
阅读全文