03 2024 档案

摘要:前言 本文没有动机在注意力机制内寻求创新。相反,它专注于在点云处理的背景下克服现有的准确性和效率之间的权衡,利用scale的力量。从3D大规模表示学习的最新进展中汲取灵感,我们认识到模型性能更多地受到规模的影响,而不是复杂设计的影响。因此,本文提出了Point TransformerV3(PTv3) 阅读全文
posted @ 2024-03-08 16:14 CV技术指南(公众号) 阅读(1243) 评论(0) 推荐(0) 编辑
摘要:前言 MQA 是 19 年提出的一种新的 Attention 机制,其能够在保证模型效果的同时加快 decoder 生成 token 的速度。在大语言模型时代被广泛使用,很多LLM都采用了MQA,如Falcon、PaLM、StarCoder等。 本文转载自Deephub Imba 作者:Floria 阅读全文
posted @ 2024-03-08 16:12 CV技术指南(公众号) 阅读(223) 评论(0) 推荐(0) 编辑
摘要:前言 为了解决基于深度学习方法泛化性的问题,来自厦门大学、Intel、大疆的研究者们提出了 GIM: Learning Generalizable Image Matcher from Internet Videos。GIM 是第一个可以让匹配模型从互联网视频中学习到强泛化能力的训练框架。 本文转载 阅读全文
posted @ 2024-03-06 22:46 CV技术指南(公众号) 阅读(425) 评论(0) 推荐(0) 编辑
摘要:前言 在某些情况下,我们需要用Pytorch做一些高级的索引/选择,所以在这篇文章中,将介绍这类任务的三种最常见的方法:torch.index_select, torch.gather and torch.take 本文转载自Deephub Imba 作者:Oliver S 仅用于学术分享,若侵权请 阅读全文
posted @ 2024-03-05 01:05 CV技术指南(公众号) 阅读(112) 评论(0) 推荐(0) 编辑
摘要:前言 Meta 研究者提出了一种改进思路,利用 SAM 的掩码图像预训练 (SAMI)。这是通过利用 MAE 预训练方法和 SAM 模型实现的,以获得高质量的预训练 ViT 编码器。这一方法降低了 SAM 的复杂性,同时能够保持良好的性能。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎 阅读全文
posted @ 2024-03-02 19:23 CV技术指南(公众号) 阅读(1301) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示