上一页 1 2 3 4 5 6 7 8 9 10 ··· 21 下一页
摘要: 论文提出了多尺度视觉Transformer模型MViT,将多尺度层级特征的基本概念与Transformer模型联系起来,在逐层扩展特征复杂度同时降低特征的分辨率。在视频识别和图像分类的任务中,MViT均优于单尺度的ViT。 来源:晓飞的算法工程笔记 公众号 论文: Multiscale Vision 阅读全文
posted @ 2024-07-17 13:43 晓飞的算法工程笔记 阅读(204) 评论(0) 推荐(0) 编辑
摘要: 论文提出了用于快速图像分类推理的混合神经网络LeVIT,在不同的硬件平台上进行不同的效率衡量标准的测试。总体而言,LeViT在速度/准确性权衡方面明显优于现有的卷积神经网络和ViT,比如在80%的ImageNet top-1精度下,LeViT在CPU上比EfficientNet快5倍 来源:晓飞的算 阅读全文
posted @ 2024-07-16 13:21 晓飞的算法工程笔记 阅读(202) 评论(0) 推荐(1) 编辑
摘要: CaiT通过LayerScale层来保证深度ViT训练的稳定性,加上将特征学习和分类信息提取隔离的class-attention层达到了很不错的性能,值得看看 来源:晓飞的算法工程笔记 公众号 论文: Going deeper with Image Transformers 论文地址:https:/ 阅读全文
posted @ 2024-07-15 13:59 晓飞的算法工程笔记 阅读(154) 评论(0) 推荐(1) 编辑
摘要: 论文基于实验验证,为数据需求预测这一问题提供了比较有用的建议,详情可以直接看看Conclusion部分。 来源:晓飞的算法工程笔记 公众号 论文: How Much More Data Do I Need? Estimating Requirements for Downstream Tasks 论 阅读全文
posted @ 2024-07-12 13:27 晓飞的算法工程笔记 阅读(284) 评论(0) 推荐(0) 编辑
摘要: CvT将Transformer与CNN在图像识别任务中的优势相结合,从CNN中借鉴了多阶段的层级结构设计,同时引入了Convolutional Token Embedding和Convolutional Projection操作增强局部建模能力,在保持计算效率的同时实现了卓越的性能。此外,由于卷积的 阅读全文
posted @ 2024-07-10 12:24 晓飞的算法工程笔记 阅读(246) 评论(0) 推荐(0) 编辑
摘要: 作者发现深层ViT出现的注意力崩溃问题,提出了新颖的Re-attention机制来解决,计算量和内存开销都很少,在增加ViT深度时能够保持性能不断提高 来源:晓飞的算法工程笔记 公众号 论文: DeepViT: Towards Deeper Vision Transformer 论文地址:https 阅读全文
posted @ 2024-07-09 13:33 晓飞的算法工程笔记 阅读(173) 评论(0) 推荐(0) 编辑
摘要: DPP能够对目标检测proposal进行非统一处理,根据proposal选择不同复杂度的算子,加速整体推理过程。从实验结果来看,效果非常不错 来源:晓飞的算法工程笔记 公众号 论文: Should All Proposals be Treated Equally in Object Detectio 阅读全文
posted @ 2024-07-08 13:46 晓飞的算法工程笔记 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 论文主要处理Vision Transformer中的性能问题,采用推理速度不同的级联模型进行速度优化,搭配层级间的特征复用和自注意力关系复用来提升准确率。从实验结果来看,性能提升不错 来源:晓飞的算法工程笔记 公众号 论文: Not All Images are Worth 16x16 Words: 阅读全文
posted @ 2024-07-03 12:23 晓飞的算法工程笔记 阅读(219) 评论(0) 推荐(1) 编辑
摘要: 论文提出了经典的Vision Transormer模型Swin Transformer,能够构建层级特征提高任务准确率,而且其计算复杂度经过各种加速设计,能够与输入图片大小成线性关系。从实验结果来看,Swin Transormer在各视觉任务上都有很不错的准确率,而且性能也很高 来源:晓飞的算法工程 阅读全文
posted @ 2024-07-02 13:16 晓飞的算法工程笔记 阅读(322) 评论(0) 推荐(1) 编辑
摘要: 论文提出CeiT混合网络,结合了CNN在提取低维特征方面的局部性优势以及Transformer在建立长距离依赖关系方面的优势。CeiT在ImageNet和各种下游任务中达到了SOTA,收敛速度更快,而且不需要大量的预训练数据和额外的CNN蒸馏监督,值得借鉴 来源:晓飞的算法工程笔记 公众号 论文: 阅读全文
posted @ 2024-05-23 13:17 晓飞的算法工程笔记 阅读(247) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 21 下一页