08 2023 档案
摘要:![](https://devrel.andfun.cn/devrel/posts/2023/08/31/8QmFnf.png) 在 Hugging Face,我们一直致力于提升服务安全性,因此,我们将对通过 Git 与 Hugging Face Hub 交互时的认证方式进行更改。从 **2023
阅读全文
摘要:今天这篇推文,我们打算给自己打一波“广告”,向大家隆重介绍 SafeCoder—— 一款专为企业打造的代码助手解决方案。 SafeCoder 旨在成为你完全合规且自托管的结对编程工程师,从而释放企业的软件开发生产力。用营销话术来讲就是:“你自己的本地 GitHub Copilot”。 在深入探讨之前
阅读全文
摘要:最近,人工智能社区在开发更大、更高性能的语言模型方面取得了显著的进展,例如 Falcon 40B、LLaMa-2 70B、Falcon 40B、MPT 30B; 以及在图像领域的模型,如 SD2.1 和 SDXL 。这些进步无疑推动了人工智能的发展,使其具有高度多功能和最先进的图像生成和语言理解能力
阅读全文
摘要:每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍 ## 重磅更新 #
阅读全文
摘要:大语言模型在理解和生成人类水平的文字方面所展现出的非凡能力,正在许多领域带来应用上的革新。然而,在消费级硬件上训练和部署大语言模型的需求也变得越来越难以满足。 🤗 Hugging Face 的核心使命是 _让优秀的机器学习普惠化_ ,而这正包括了尽可能地让所有人都能够使用上大模型。本着 [与 bi
阅读全文
摘要:🤗 Transformers 提供了许多最新最先进 (state-of-the-art, SoTA) 的模型,这些模型横跨多个领域及任务。为了使这些模型能以最佳性能运行,我们需要优化其推理速度及内存使用。 🤗 Hugging Face 生态系统为满足上述需求提供了现成且易于使用的优化工具,这些工
阅读全文
摘要:## 简介 基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback,RLHF) 事实上已成为 GPT-4 或 Claude 等 LLM 训练的最后一步,它可以确保语言模型的输出符合人类在闲聊或安全性等方面的期望。然而,它也给 NLP 引入了一些
阅读全文
摘要:每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍 ## 重磅更新 #
阅读全文
摘要:## 引言 生成式 AI 已成为游戏开发中艺术工作流的重要组成部分。然而,正如我在 [之前的文章](https://huggingface.co/blog/zh/ml-for-games-3) 中描述的,从文本到 3D 的实用性仍落后于 2D。不过,这种情况正在改变。本文我们将重新审视 3D 素材生
阅读全文
摘要:> 数据点(data points)通常用于描述单个信息单位或观测值,在本文中,它被用来量化“提示词”方法相对于传统方法的效率和效果。文章比较了两种训练(微调)机器学习模型的方法:一种是使用提示 (prompts),本文也称之“提示词”,另一种是使用传统的分类器头 (classifier heads
阅读全文
摘要:![](https://files.mdnice.com/user/38198/87f76ff4-badc-4eed-87b6-d53a0b48ae07.jpg) Llama 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。Llama 2 可通过 AWS、Hugging F
阅读全文
摘要:每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍 ## 重磅更新 #
阅读全文
摘要:![](https://man-archives.oss-cn-hangzhou.aliyuncs.com/goofan/202308101215960.png) 我们正式向大家介绍 TRL——Transformer Reinforcement Learning。这是一个超全面的全栈库,包含了一整套
阅读全文
摘要:[更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差,同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性,并且和原始训练数据更加接近,也更不像人话。最近的研究克服了这些困难,并且友好的交互页面能让每个人尝
阅读全文
摘要:🤖️ 我们要求每位参赛选手以 LLM (大语言模型)为工具,将 AI 的能力与选手的创作才华相结合,创造出引人入胜、感人至深或充满疯狂的微小说! 无论你是首次接触 AI 工具还是资深的从业者,我们期待在这次比赛中看到你的作品,感受你的创意,通过你的作品看到涌动探索和蓬勃学习的痕迹。 ⚠️ 即日起至
阅读全文
摘要:每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍 ## 重磅更新 #
阅读全文
摘要:不要 重复自己* 如何为现代机器学习设计开源库 ## 🤗 Transformers 设计理念 _“不要重复自己 (Don’t Repeat Yourself)”_ ,或 **DRY**,是广为人知的软件开发原则。该原则出自《程序员修炼之道: 从小工到专家》 (英文名为 The pragmatic
阅读全文
摘要:在对最先进的视觉语言模型 BridgeTower 进行微调时,使用 [Optimum Habana v1.6](https://github.com/huggingface/optimum-habana/tree/main), Habana Gaudi2 可以达到 **近 3 倍于 A100 的速度
阅读全文
摘要:通过本文,你将学习如何使用 [Habana® Gaudi®2](https://habana.ai/training/gaudi2/) 加速模型训练和推理,以及如何使用 🤗 [Optimum Habana](https://huggingface.co/docs/optimum/habana/in
阅读全文
摘要:几周前,我们很高兴地 [宣布](https://huggingface.co/blog/zh/habana) [Habana Labs](https://habana.ai) 和 [Hugging Face](https://huggingface.co/) 将开展加速 transformer 模型
阅读全文