摘要: 论文:MetaFormer is Actually What You Need for Vision,(CVPR,2021) 论点:transformer的网络结构而不是self-attention tocken mixer使得模型效果好;为了证明此论点,作者将attention模块换成令人尴尬简单 阅读全文
posted @ 2022-03-29 15:31 ldfm 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 论文:Are we ready for a new paradigm shift? A Survey on Visual Deep MLP,review,2021年末 1. MLP、CNNs和transformer结构分析 MLP即为多层感知机,多层全连接网络前向堆叠而成,主要存在问题是参数量太大; 阅读全文
posted @ 2022-03-29 10:18 ldfm 阅读(519) 评论(0) 推荐(0) 编辑