5.27

黄仁勋介绍道,8 年内英伟达 AI 算力增加了 1000 倍,能以更低成本去训练大模型。举例来说,训练 1.8 万亿参数、8 万亿 token 的 GPT-4,所需能耗从 8 年前 Pascal 架构的 1000GWh 减少到 Blackwell 的 3GWh,也就是说将能耗足足降至 8 年前的 1/350。

此外,Blackwell 将生成 token 的能耗降至 8 年前的 1/45000。以前用 Pascal 产生 1 token 的能耗相当于 2 个 200W 灯泡运行 2 天,让 GPT-4 生成一个单词大约需要 3 个 token。现在 1 token 只用 0.4J 能耗。

不止于此,老黄表示,必须制造更大的机器,英伟达构建它的方式是风冷 DGX 和液冷 MGX。

其中 DGX 的 AI 算力提升到上一代的 45 倍,达到 1440PFLOPS,而能耗仅为上一代的 10 倍。新一代 DGX 能搭载 72 个 GPU,背后由 NVLink 5000 根电缆组成的主干支持,能为一个机架节省 20kW 电能。

posted @   SDGVSBGDRH  阅读(9)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
点击右上角即可分享
微信分享提示