随笔分类 -  Hugging Face 博客

上一页 1 2 3 4 5 6 ··· 9 下一页
摘要:欢迎 Stable Diffusion 3.5 Large 加入 🧨 Diffusers作为 Stable Diffusion 3 的改进版本,Stable Diffusion 3.5 如今已在 Hugging Face Hub 中可用,并可以直接使用 🧨 Diffusers 中的代码运行。 本次发布包含 两套模型参数: 一个大型的模型 (large,8B) 该模型经过时间步蒸馏的版 阅读全文
posted @ 2024-11-07 14:54 HuggingFace 阅读(1029) 评论(0) 推荐(0) 编辑
摘要:SynthID Text 现已发布|在 AI 生成文本中应用不可见水印的新技术你是否难以分辨一段文本是由人类撰写的,还是 AI 生成的?识别 AI 生成内容对于提升信息可信度、解决归因错误以及抑制错误信息至关重要。 今天,Google DeepMind 和 Hugging Face 很共同宣布,在 Transformers v4.46.0 版本中,我们正式推出了 SynthI 阅读全文
posted @ 2024-11-07 12:59 HuggingFace 阅读(453) 评论(0) 推荐(3) 编辑
摘要:为数据集而生的 SQL 控制台随着数据集的使用量急剧增加,Hugging Face 社区已经变成了众多数据集默认存放的仓库。每月,海量数据集被上传到社区,这些数据集亟需有效的查询、过滤和发现。 每个月在 Hugging Face Hub 创建的数据集 我们现在非常激动地宣布,您可以直接在 Hugging Face 社区中对您的数 阅读全文
posted @ 2024-10-30 23:10 HuggingFace 阅读(469) 评论(1) 推荐(1) 编辑
摘要:Hugging Face 与 TruffleHog 合作,实现风险预警我们非常高兴地宣布与 Truffle Security 建立合作伙伴关系并在我们的平台集成 TruffleHog 强大的风险信息扫描功能。这些特性是 我们持续致力于提升安全性 的重要举措之一。 TruffleHog 是一款开源工具,用于检测和验证代码中的机密信息泄露。它拥有广泛的检测器,覆盖多种流行 阅读全文
posted @ 2024-10-30 10:54 HuggingFace 阅读(228) 评论(0) 推荐(0) 编辑
摘要:顶点着色网格转换为 UV 映射的纹理化网格简介 顶点着色是一种将颜色信息直接应用于网格顶点的简便方法。这种方式常用于生成式 3D 模型的构建,例如 InstantMesh。然而,大多数应用程序更偏好使用 UV 映射的纹理化网格。 本教程将介绍一种快速的解决方案,将顶点着色的网格转换为 UV 映射和纹理化的网格。内容包括 [简短版](# 简短 阅读全文
posted @ 2024-10-23 20:53 HuggingFace 阅读(259) 评论(0) 推荐(0) 编辑
摘要:在端侧部署 Transformer 模型需要仔细考虑性能和兼容性。Python 虽然功能强大,但对于部署来说有时并不算理想,特别是在由 C++ 主导的环境中。这篇博客将指导您如何使用 Optimum-Intel 和 OpenVINO™ GenAI 来优化和部署 Hugging Face Transf 阅读全文
posted @ 2024-10-21 13:46 HuggingFace 阅读(145) 评论(0) 推荐(0) 编辑
摘要:Hugging Face 与 Wiz Research 合作提高人工智能安全性本文首发于 2024 年 5 月 我们很高兴地宣布,我们正在与 Wiz 合作,目标是提高我们平台和整个 AI/ML 生态系统的安全性。 Wiz 研究人员 与 Hugging Face 就我们平台的安全性进行合作并分享了他们的发现。 Wiz 是一家云安全公司,帮助客户以安全的方式构建和维护软件。 随着 阅读全文
posted @ 2024-10-21 12:58 HuggingFace 阅读(71) 评论(0) 推荐(0) 编辑
摘要:更快的辅助生成: 动态推测⭐ 在这篇博客文章中,我们将探讨 动态推测解码 ——这是由英特尔实验室和 Hugging Face 开发的一种新方法,可以加速文本生成高达 2.7 倍,具体取决于任务。从 Transformers🤗 发布的版本 4.45.0 开始,这种方法是辅助生成的默认模式⭐ 推测解码 推测解码 技术十分流行, 阅读全文
posted @ 2024-10-21 11:00 HuggingFace 阅读(258) 评论(0) 推荐(0) 编辑
摘要:现在 Llama 具备视觉能力并可以在你的设备上运行 - 欢迎使用 Llama 3.2Llama 3.2 来了!今天,我们欢迎 Llama 系列的下一个版本加入 Hugging Face。这次,我们很高兴与 Meta 合作发布多模态和小型模型。在 Hub 上提供了十个开源模型 (5 个多模态模型和 5 个仅文本模型)。 Llama 3.2 Vision 有两种尺寸: 11B 适用于在 阅读全文
posted @ 2024-10-15 13:35 HuggingFace 阅读(2213) 评论(1) 推荐(4) 编辑
摘要:揭秘 FineVideo 数据集构建的背后的秘密开放视频数据集稀缺,因此减缓了开源视频 AI 的发展。为此,我们构建了 FineVideo,这是一个包含 43,000 个视频的数据集,总时长为 3,400 小时,并带有丰富的描述、叙事细节、场景分割和问答对。 FineVideo 包含高度多样化的视频和元数据集合,使其成为训练模型理解视频内容、训练 阅读全文
posted @ 2024-10-13 09:25 HuggingFace 阅读(313) 评论(0) 推荐(1) 编辑
摘要:Gradio 5 稳定版正式发布在过去的几个月里,我们一直在努力工作,今天,我们想向大家展示成果:Gradio 5 稳定版现已发布。 有了 Gradio 5,开发者可以构建 生产级的机器学习 Web 应用,这些应用不仅性能优越、可扩展、设计精美、易于访问,而且还遵循了最佳的 Web 安全实践。更重要的是,只需几行 Python 代 阅读全文
posted @ 2024-10-10 20:15 HuggingFace 阅读(856) 评论(0) 推荐(2) 编辑
摘要:将 LLMs 精调至 1.58 比特: 使极端量化变简单随着大语言模型 (LLMs) 规模和复杂性的增长,寻找减少它们的计算和能耗的方法已成为一个关键挑战。一种流行的解决方案是量化,其中参数的精度从标准的 16 位浮点 (FP16) 或 32 位浮点 (FP32) 降低到 8 位或 4 位等低位格式。虽然这种方法显著减少了内存使用量并加快了计算速度,但往 阅读全文
posted @ 2024-09-29 14:14 HuggingFace 阅读(840) 评论(0) 推荐(1) 编辑
摘要:HuggingChat macOS 版现已发布Hugging Face 的开源聊天应用程序 Hugging Chat,现已推出适用于 macOS 的版本。 主要特点 Hugging Chat macOS 版本具有以下亮点: 强大的模型支持: 用户可以一键访问多个顶尖的开源大语言模型,包括 Qwen 2.5 72B、Command R+、Phi 阅读全文
posted @ 2024-09-26 20:28 HuggingFace 阅读(445) 评论(0) 推荐(1) 编辑
摘要:对 LLM 工具使用进行统一我们为 LLM 确立了一个跨模型的 统一工具调用 API。有了它,你就可以在不同的模型上使用相同的代码,在 Mistral、Cohere、NousResearch 或 Llama 等模型间自由切换,而无需或很少需要根据模型更改工具调用相关的代码。此外,我们还在 transformers 中新增了一些 阅读全文
posted @ 2024-09-26 10:16 HuggingFace 阅读(594) 评论(0) 推荐(1) 编辑
摘要:Accelerate 1.0.0Accelerate 发展概况 在三年半以前、项目发起之初时,Accelerate 的目标还只是制作一个简单框架,通过一个低层的抽象来简化多 GPU 或 TPU 训练,以此替代原生的 PyTorch 训练流程: 自此,Accelerate 开始不断扩展,逐渐成为一个有多方面能力的代码库。当前,像 L 阅读全文
posted @ 2024-09-24 13:51 HuggingFace 阅读(215) 评论(0) 推荐(0) 编辑
摘要:Hugging Face 论文平台 Daily Papers 功能全解析文/ Adeena, 在快速发展的研究领域,保持对最新进展的关注至关重要。为了帮助开发者和研究人员跟踪 AI 领域的前沿动态,Hugging Face 推出了 Daily Papers 页面。自发布以来,Daily Papers 已展示了由 AK 和社区研究人员精心挑选的高质量研究。在过去一年里,已 阅读全文
posted @ 2024-09-24 13:34 HuggingFace 阅读(314) 评论(2) 推荐(1) 编辑
摘要:简单概述 现在,在 Hugging Face 中,使用打包的指令调整示例 (无需填充) 进行训练已与 Flash Attention 2 兼容,这要归功于一个 最近的 PR 以及新的 DataCollatorWithFlattening。 它可以在保持收敛质量的同时,将训练吞吐量提高多达 2 倍。继 阅读全文
posted @ 2024-09-12 12:23 HuggingFace 阅读(279) 评论(0) 推荐(0) 编辑
摘要:Falcon Mamba 是由阿布扎比的 Technology Innovation Institute (TII) 开发并基于 TII Falcon Mamba 7B License 1.0 的开放获取模型。该模型是开放获取的,所以任何人都可以在 Hugging Face 生态系统中 这里 使用它 阅读全文
posted @ 2024-09-05 21:25 HuggingFace 阅读(400) 评论(0) 推荐(1) 编辑
摘要:我们花了一笔巨款收购了 .com 域名,恭喜我们,也恭喜过去的这位域名持有者 🫴 接住了这泼天的富贵 🤗 阅读全文
posted @ 2024-09-05 10:27 HuggingFace 阅读(117) 评论(0) 推荐(2) 编辑
摘要:总结: 随着我们增加内存压缩次数的次数,Infini-attention 的性能会变得越来越差。据我们所知,ring attention、YaRN 和 rope scaling 这三种方法仍是将预训练模型拓展更长上下文的最佳方式。 引言: 语言模型的上下文长度也是除模型性能之外的重要属性之一。自 i 阅读全文
posted @ 2024-08-30 15:34 HuggingFace 阅读(82) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 ··· 9 下一页
点击右上角即可分享
微信分享提示