会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
哪有什么岁月静好,不过是有人替你负重前行!
自由方向
博客园
首页
新随笔
联系
订阅
管理
2022年10月24日
ConvFormer: Closing the Gap Between CNN and Vision Transformers概述
摘要: 0.前言 相关资料: arxiv github 论文解读 论文基本信息: 发表时间:arxiv2022(2022.9.16) 1.针对的问题 CNN虽然效率更高,能够建模局部关系,易于训练,收敛速度快。然而,它们大多采用静态权重,限制了它们的表示能力和通用性。而全局注意力机制虽然提供了动态权重,能从
阅读全文
posted @ 2022-10-24 20:47 Lhiker
阅读(707)
评论(1)
推荐(0)
编辑
公告