AI算力规模,支持1万亿个参数联动,超出我们普通常人脑袋里的概念

AI算力规模,支持1万亿个参数联动,超出我们普通常人脑袋里的概念:

从网上得到的信息,一个语言大模型需要的算力,从中可见一斑,参数规模: 1万亿个参数,联动需要多大算力支持?

4月23日讯(编辑 赵昊)据媒体报道,日本软银集团将在今明两年投资1500亿日元(约合9.6亿美元),为其计算设施提供开发“世界级生成式人工智能所需的数字运算能力。
去年,软银宣布投资约200亿日元开发基于日语文本的生成式人工智能,预计在2024财年内完成一个3900亿参数的大语言模型(LLM)的开发,并计划最快在明年开始开发1万亿参数的高性能模型。
报道解释道,1万亿参数是“世界级”性能的基准,美国OpenAl的GPT-4就超过了这一水平。对于大模型企业而言,能否搭建起大算力的基础设施成为能否实现大模型创新落地的关键,例如OpenAl就用了25000张A100训练GPT-4。
为了提供训练模型所需的算力,软银在今明两年新增了1500亿日元的投资支出,将从英伟达处采购图形处理单元(GPU)。

posted on   人生不开窍  阅读(22)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示