03 2022 档案
摘要:论文:https://openreview.net/forum?id=_WnAQKse_uK 代码:https://github.com/Annbless/ViTAE 1、Motivation 这个论文的思想非常简单:将CNN和 VIT 结合,浅层用CNN,深层用VIT。 同时,在attention
阅读全文
摘要:20220222 今天是20220222超级有爱日,新学期第一次集体跑步~考研成绩出了,几家欢乐几家愁~刚不可久,柔不可守,其实都是殊途同归,或早或晚,大家都将拥有平凡但绚丽的人生 20220219 心血来潮和杨总吃了个烤肉自助,一会儿就吃饱了,看着旁边年轻人热火朝天一盘盘大肉吃的美滋滋,真心羡慕~
阅读全文
摘要:部分内容来自于 GiantPandaCV 的文章 论文:https://openaccess.thecvf.com/content/ICCV2021/papers/Yuan_Tokens-to-Token_ViT_Training_Vision_Transformers_From_Scratch_o
阅读全文
摘要:a 论文链接:https://arxiv.org/abs/2111.09881 代码链接:https://github.com/swz30/Restormer 1、研究动机 论文的 motivation 非常简单,就是认为CNN感受野有限,因此无法对长距离像素相关性进行建模。因此,想使用 Trans
阅读全文
摘要:【ARXIV2202】Visual Attention Network 论文地址:https://arxiv.org/abs/2202.09741 代码地址:https://github.com/Visual-Attention-Network 一些想法 这个方法看起来非常简单,有些像在Mobile
阅读全文
摘要:【ICLR2022】Not all patches are what you need: Expediting vision transformers via token reorganization 文章链接:https://arxiv.org/abs/2202.07800 代码链接:https:
阅读全文