11 2022 档案

摘要:【ECCV2022】DaViT: Dual Attention Vision Transformers 代码:https://github.com/dingmyu/davit 这个论文想法很自然也容易想到。Transformer都是在处理 PxC 二维的数据,其中 P 是token 的数量,C是特征 阅读全文
posted @ 2022-11-18 19:33 高峰OUC 阅读(240) 评论(0) 推荐(0) 编辑
摘要:【ARXIV2207】LightViT: Towards Light-Weight Convolution-Free Vision Transformers 论文地址:https://arxiv.org/abs/2207.05557 代码地址:https://github.com/hunto/Lig 阅读全文
posted @ 2022-11-18 07:00 高峰OUC 阅读(124) 评论(0) 推荐(0) 编辑
摘要:1、Motivation 这个论文来自于清华大学鲁继文老师团队,核心是 attention 和 MLP-mixer 思想的结合。 建议用2分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021 阅读全文
posted @ 2022-11-14 18:13 高峰OUC 阅读(223) 评论(0) 推荐(0) 编辑
摘要:用5分钟时间学习一下谷歌公司的 MLP-Mixer 「MLP-Mixer: An all-MLP Architecture for Vision」CVPR 2021 CNN以及 attention 在视觉任务上取得非常好的性能,但是我们真的需要这么复杂的网络结构吗?MLP 这种简单的结构是否也能够取 阅读全文
posted @ 2022-11-03 03:16 高峰OUC 阅读(326) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示