2024-02-04-大模型微调实战之GPU原理详解 -卢菁

摘要

2024-02-04 周日 老家 阴

小记: 继续学习机器学习相关的知识

课程内容

1. 数据的位宽

  • 32bit float 可以作为弱基线;
  • 对于训练使用 FP16,BF16,TF32;
  • 推理 CV 任务以 int8 为主,NLP 以 FP16 为主,大模型 int8/FP16混合;

2. 计算分解

3. 数据计算强度

4. 计算强度

5. 英伟达主要产品线

6. 大模型计算量计算方法

7. GPU 计算过程

关键点: CPU 通过降低延迟加快速度,GPU 是提高并发内存占用提高速度。

8. CPU 与 GPU 的区别

9. GPU 的核心架构(A100 为例)

10. 英伟达历代产品参数

  • PCie

  • Nvlink

  • 硬件通信原理

  • 第一代 Nvlink

  • Nvlink 发展

  • GPU 的并行计算

Nvlink 大模型:
a. 大模型本身大,单核gpu 装不下
b. 数据多,单个 gpu 算不完

关键点: 单机目前最多支持 8 张卡;

  • 大模型核心总结

a. 算法: 大部分开源,没有什么神秘的
b. 数据: 苦活
c. 算力: 花钱

总结

心得: GPU 这个水真的很深,大模型应用无非三个方面,算法难,但是开源;数据多,但是太杂乱;算力好,但是要花钱。

posted @ 2024-02-04 12:58  流雨声  阅读(31)  评论(0编辑  收藏  举报