上一页 1 2 3 4 5 6 7 8 9 ··· 32 下一页
摘要: 我们花了一笔巨款收购了 .com 域名,恭喜我们,也恭喜过去的这位域名持有者 🫴 接住了这泼天的富贵 🤗 阅读全文
posted @ 2024-09-05 10:27 HuggingFace 阅读(117) 评论(0) 推荐(2) 编辑
摘要: 总结: 随着我们增加内存压缩次数的次数,Infini-attention 的性能会变得越来越差。据我们所知,ring attention、YaRN 和 rope scaling 这三种方法仍是将预训练模型拓展更长上下文的最佳方式。 引言: 语言模型的上下文长度也是除模型性能之外的重要属性之一。自 i 阅读全文
posted @ 2024-08-30 15:34 HuggingFace 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 本文,我们将发布 Docmatix - 一个超大的文档视觉问答 (DocVQA) 数据集,比之前的数据集大 100 倍。当使用 Docmatix 微调 Florence-2 时,消融实验显示 DocVQA 任务的性能提高了 20%。 Docmatix 数据集样本示例 缘起于 丹鼎 (The Caul 阅读全文
posted @ 2024-08-30 15:20 HuggingFace 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 过去的几个月,我们目睹了使用基于 transformer 模型作为扩散模型的主干网络来进行高分辨率文生图 (text-to-image,T2I) 的趋势。和一开始的许多扩散模型普遍使用 UNet 架构不同,这些模型使用 transformer 架构作为扩散过程的主模型。由于 transformer 阅读全文
posted @ 2024-08-30 14:28 HuggingFace 阅读(421) 评论(0) 推荐(1) 编辑
摘要: ggml 是一个用 C 和 C++ 编写、专注于 Transformer 架构模型推理的机器学习库。该项目完全开源,处于活跃的开发阶段,开发社区也在不断壮大。ggml 和 PyTorch、TensorFlow 等机器学习库比较相似,但由于目前处于开发的早期阶段,一些底层设计仍在不断改进中。 相比于 阅读全文
posted @ 2024-08-29 22:20 HuggingFace 阅读(880) 评论(0) 推荐(1) 编辑
摘要: TGI 多-LoRA: 部署一次,搞定 30 个模型的推理服务 你是否已厌倦管理多个 AI 模型所带来的复杂性和高成本? 那么, 如果你可以部署一次就搞定 30 个模型推理服务会如何? 在当今的 ML 世界中,哪些希望充分发挥其数据的价值的组织可能最终会进入一个“微调的世界”。在这个世界,各个组织会构建大量模型,其中每个模型都针对特定任务进行了高度特化。但是,如 阅读全文
posted @ 2024-08-12 22:40 HuggingFace 阅读(1182) 评论(0) 推荐(1) 编辑
摘要: XetHub 加入 Hugging Face! 我们非常激动地正式宣布,Hugging Face 已收购 XetHub 🔥 XetHub 是一家位于西雅图的公司,由 Yucheng Low、Ajit Banerjee 和 Rajat Arya 创立,他们之前在 Apple 工作,构建和扩展了 Apple 的内部机器学习基础设施。XetHub 的 阅读全文
posted @ 2024-08-09 20:38 HuggingFace 阅读(57) 评论(0) 推荐(0) 编辑
摘要: NuminaMath 是如何荣膺首届 AIMO 进步奖的? 今年,Numina 和 Hugging Face 合作角逐 AI 数学奥林匹克 (AI Math Olympiad,AIMO) 的首届进步奖。此次比赛旨在对开放 LLM 进行微调,以使其能解决高中难度的国际数学奥林匹克训练题。我们很高兴向大家报告: 我们的模型 - NuminaMath 7B TIR 阅读全文
posted @ 2024-08-09 20:28 HuggingFace 阅读(497) 评论(0) 推荐(1) 编辑
摘要: 简介 本文将介绍 SmolLM。它集合了一系列最尖端的 135M、360M、1.7B 参数量的小模型,这些模型均在一个全新的高质量数据集上训练。本文将介绍数据整理、模型评测、使用方法等相关过程。 引言 近期,人们对能在本地设备上运行的小语言模型的兴趣日渐增长。这一趋势不仅激发了相关业者对蒸馏或量化等 阅读全文
posted @ 2024-08-03 09:22 HuggingFace 阅读(1840) 评论(0) 推荐(1) 编辑
摘要: 在发布 Gemma 2 一个月后,Google 扩展了其 Gemma 模型系列,新增了以下几款: Gemma 2 2B - 这是 Gemma 2 的 2.6B 参数版本,是设备端使用的理想选择。 ShieldGemma - 一系列安全分类器,基于 Gemma 2 训练,用于开发者过滤其应用程序的输入 阅读全文
posted @ 2024-08-03 08:57 HuggingFace 阅读(549) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 32 下一页
点击右上角即可分享
微信分享提示