上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 32 下一页
摘要: 3D 高斯点染技术由 3D Gaussian Splatting for Real-Time Radiance Field Rendering 一文首次提出。作为一种栅格化技术,3D 高斯点染可用于实时且逼真地渲染从一小组图像中学到的场景。本文将详细介绍其工作原理并讨论其对图形学的未来会带来什么影响 阅读全文
posted @ 2023-12-26 17:29 HuggingFace 阅读(667) 评论(0) 推荐(0) 编辑
摘要: 前段时间我们介绍了一些 HF 核心库在 Google Colab 环境中的内置,包括可以使用 hf:// 资源标识符来调用 Hub 上的数据集等等,详情可以回顾文章:Google Colab 现已支持直接使用 🤗 transformers 库。 今天,随着 huggingface_hub 库的更新 阅读全文
posted @ 2023-12-22 19:45 HuggingFace 阅读(62) 评论(0) 推荐(0) 编辑
摘要: 引言 自然语言处理 (NLP) 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBERTa、Mistral-7B 及 Llama-2-7B。我们用它们来解决一个常见问题 —— 对灾难相关 阅读全文
posted @ 2023-12-21 16:00 HuggingFace 阅读(1018) 评论(0) 推荐(1) 编辑
摘要: 高斯喷溅 (Gaussian Splatting) 技术是一种翻天覆地的渲染手段,能够以 144 帧每秒的速度渲染出高质量的场景,这和传统的图形处理流程截然不同 🎨 这种将高斯数据转换成图像的过程,与训练神经网络相似,但由于不包含任何层级,其速度非常快 🌌 这种图形处理流程的革新,就像过去在 3 阅读全文
posted @ 2023-12-16 15:50 HuggingFace 阅读(355) 评论(0) 推荐(0) 编辑
摘要: 引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SLURM 中使用 Accelerate。 完全分片数据并 阅读全文
posted @ 2023-12-12 00:39 HuggingFace 阅读(1026) 评论(0) 推荐(1) 编辑
摘要: 本文,我们将了解如何基于 PyTorch 最新的 完全分片数据并行 (Fully Sharded Data Parallel,FSDP) 功能用 Accelerate 库来训练大模型。 动机 🤗 随着机器学习 (ML) 模型的规模、大小和参数量的不断增加,ML 从业者发现在自己的硬件上训练甚至加载 阅读全文
posted @ 2023-12-04 20:54 HuggingFace 阅读(1986) 评论(0) 推荐(1) 编辑
摘要: Google Colab,全称 Colaboratory,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适合机器学习、数据分析和教育目的。从技术上来说,Colab 是一种托管式 Jupyter 笔记本服务。 阅读全文
posted @ 2023-12-01 23:06 HuggingFace 阅读(652) 评论(0) 推荐(0) 编辑
摘要: Gradio 是一个经常用于创建交互式机器学习应用的 Python 库。在以前按照传统方法,如果想对外分享 Gradio 应用,就需要依赖服务器设备和相关资源,而这对于自己部署的开发人员来说并不友好。 欢迎 Gradio-lite ( @gradio/lite ): 一个通过 Pyodide 在浏览 阅读全文
posted @ 2023-12-01 11:53 HuggingFace 阅读(421) 评论(0) 推荐(1) 编辑
摘要: 视频地址:https://www.bilibili.com/video/BV1eg4y1Q7N5/ 是未来危机,还是眼下的问题?🌍 Sasha Luccioni 是 Hugging Face 团队的道德和可持续人工智能研究员,被邀请做了 TED 演讲 📢 演讲主题也是最近在 AI 伦理道德方面的 阅读全文
posted @ 2023-11-28 18:50 HuggingFace 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 引言 基于 transformer 的模型已被证明对很多 NLP 任务都非常有用。然而,\(O(n^2)\) 的时间和内存复杂度 (其中 \(n\) 是序列长度) 使得在长序列 (\(n > 512\)) 上应用它们变得非常昂贵,因而大大限制了其应用。最近的几篇论文,如 Longformer 、Pe 阅读全文
posted @ 2023-11-24 01:41 HuggingFace 阅读(717) 评论(0) 推荐(0) 编辑
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 32 下一页