02 2024 档案

摘要:近几个月来,我们看到了多起关于“深度伪造 (deepfakes)”或人工智能生成内容的新闻报道:从 泰勒·斯威夫特的图片、汤姆·汉克斯的视频 到 美国总统乔·拜登的录音。这些深度伪造内容被用于各种目的,如销售产品、未经授权操纵人物形象、钓鱼获取私人信息,甚至制作误导选民的虚假资料,它们在社交媒体平台 阅读全文
posted @ 2024-02-28 21:53 HuggingFace 阅读(610) 评论(0) 推荐(2) 编辑
摘要:我们最近宣布了,来自 Google Deepmind 开放权重的语言模型 Gemma现已通过 Hugging Face 面向更广泛的开源社区开放。该模型提供了两个规模的版本:20 亿和 70 亿参数,包括预训练版本和经过指令调优的版本。它在 Hugging Face 平台上提供支持,可在 Verte 阅读全文
posted @ 2024-02-25 10:46 HuggingFace 阅读(2162) 评论(0) 推荐(1) 编辑
摘要:不藏了,近期全网爆火的AI 写真项目 InstantID,正是来自小红书社区技术创作发布团队。 为了迎接龙年春节的到来,我们的InstantID全新推出「Spring Festival」新春风格!并与著名开源模型社区 Hugging Face 联手,在小红书 APP 上,特别策划 「你的新春照我包了 阅读全文
posted @ 2024-02-24 22:41 HuggingFace 阅读(259) 评论(0) 推荐(2) 编辑
摘要:今天,Google 发布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与 Hugging Face 生态完美集成。 Gemma 提供两种规模的模型:7B 参数模型,针对消费级 GPU 和 TPU 设计,确保 阅读全文
posted @ 2024-02-22 22:23 HuggingFace 阅读(761) 评论(0) 推荐(0) 编辑
摘要:概要 开源大型语言模型 (LLMs) 现已达到一种性能水平,使它们适合作为推动智能体工作流的推理引擎: Mixtral 甚至在我们的基准测试中 超过了 GPT-3.5,并且通过微调,其性能可以轻易的得到进一步增强。 引言 针对 因果语言建模 训练的大型语言模型 (LLMs) 可以处理广泛的任务,但它 阅读全文
posted @ 2024-02-22 21:42 HuggingFace 阅读(1410) 评论(1) 推荐(3) 编辑
摘要:引言 近来,随着 BigCode 的 StarCoder 以及 Meta AI 的 Code Llama 等诸多先进模型的发布,代码生成模型变得炙手可热。同时,业界也涌现出了大量的致力于优化大语言模型 (LLM) 的运行速度及易用性的工作。我们很高兴能够分享我们在英特尔至强 CPU 上优化 LLM 阅读全文
posted @ 2024-02-20 21:14 HuggingFace 阅读(150) 评论(0) 推荐(0) 编辑
摘要:摘录 关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进 阅读全文
posted @ 2024-02-19 21:08 HuggingFace 阅读(916) 评论(1) 推荐(2) 编辑
摘要:辞旧迎新春节到,家家户户好热闹。Hugging Face 中国团队成员祝各位社区成员们新春快乐,万事如意! 过去的一年我们持续看到 AI 技术的腾飞和发展,以及诸多机构为开源 AI 作出巨大的贡献。非常感谢将模型、数据集和应用 Demo 发布在 Hugging Face 上的团队,新的一年,我们也会 阅读全文
posted @ 2024-02-09 12:38 HuggingFace 阅读(68) 评论(0) 推荐(0) 编辑
摘要:这篇博客是一篇来自 Meta AI,关于指令微调 Llama 2 的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调 Llama 2 基础模型。 目标是构建一个能够基于输入内容来生成指令的模型。这么做背后的逻辑是,模型如此就可以由其他人生成自己的指令数据集。这在当想开发私人个 阅读全文
posted @ 2024-02-08 17:01 HuggingFace 阅读(1788) 评论(0) 推荐(0) 编辑
摘要:这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客 介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将会更一步深入嵌入并解释双向编码和交叉编码的区别。进一步我们将了解 检索和重排序 的理论。我们会构建一个工具,它可以来回答 阅读全文
posted @ 2024-02-06 20:44 HuggingFace 阅读(1310) 评论(0) 推荐(2) 编辑
摘要:来自社区的 SD-XL Dreambooth LoRA 微调最佳实践指南 太长不看版 我们把 Replicate 在 SDXL Cog 训练器中使用的枢轴微调 (Pivotal Tuning) 技术与 Kohya 训练器中使用的 Prodigy 优化器相结合,再加上一堆其他优化,一起对 SDXL 进 阅读全文
posted @ 2024-02-05 21:04 HuggingFace 阅读(1483) 评论(0) 推荐(0) 编辑