CUDA简单介绍

并行计算

并行计算(parallel computing)是一种计算形式,它将大的问题分解为许多可以并行的小问题。
并行计算分为:任务并行(task parallel)和数据并行(data parallel)

  • 任务并行指多个任务同时执行
  • 数据并行指多个数据可以同时处理,每个数据由独立的线程处理
  • 数据并行分块方法有:块分(block partitioning)和循环分块(cyclic partitioning)

PS:
块分循环分块是两种不同的编程技术,用于将代码分成更小的块以提高代码的可读性和可维护性。

  • 块分是指将一段代码分成多个块,每个块执行特定的任务。这些块可以是函数、方法或代码块。块分的目的是将代码逻辑分解为更小的部分,使得每个块只负责一个特定的功能。这样做的好处是可以更容易地理解和调试代码,也可以更方便地重用代码。块分还可以提高代码的可读性,因为每个块都有一个清晰的目的和功能。
  • 循环分块是指在循环中将一段代码分成多个块,每个块在每次循环迭代时执行一次。循环分块的目的是将循环体内的代码逻辑分解为更小的部分,使得每个块只负责一个特定的功能。这样做的好处是可以更容易地理解和调试循环体内的代码,也可以更方便地重用代码。循环分块还可以提高代码的可读性,因为每个块都有一个清晰的目的和功能,并且可以更容易地理解循环的逻辑。

总结起来,块分和循环分块都是将代码分解为更小的部分的技术,以提高代码的可读性、可维护性和重用性。
块分适用于将整个代码分解为多个功能块,而循环分块适用于将循环体内的代码分解为多个功能块。无论是块分还是循环分块,都可以帮助我们更好地组织和管理代码。

异构计算

异构计算(heterogeneous computing)是对并行计算的延伸,是高性能计算发展的里程碑。
异构计算指在具有多种类型处理器(CPU和GPU)的系统中完成的计算
image
CPU擅长与逻辑处理,GPU擅长数据处理,在通用的异构计算结构中,两者可通过PCIe总线进行连接,使其发挥各自擅长的部分。

在异构计算的程序中,包含了运行在GPU的程序也包含了运行在CPU的程序
image
因GPU上有很多线程,因此在GPU上的执行是一个并行的数据处理

GPU性能指标

  • GPU核心数(core number)
  • GPU内存容量
  • 计算峰值

每秒钟单精度或双精度运算能力

  • 内存带宽

每秒钟读出或 写入GPU内存的数据量

CUDA

CUDA(Compute Unified Device Architecture)是英伟达公司推出的基于GPU的通用高性能计算平台和编程模型。
可以通过CUDA充分利用英伟达GPU的强大计算能力
CUDA平台的架构如下图:
image
CUDA平台提供了驱动层接口(Driver API)和运行时接口(Runtime API)
基于运行时接口,CUDA的然见架构图如下:
image

基于CUDA平台开发的程序包含了主机代码设备代码

主机代码:主要执行流程控制或者是业务层控制
设备代码:主要是数据的并行计算

CUDA程序从程序代码层次的架构
image

PS:
建议

在对cuda的学习中,要注意或掌握一下几点:

  • CUDA C编程时只需要编写程序顺序执行的程序,在程序代码中不需要有多线程的处理。
  • 需要深刻理解CUDA平台GPU的内存结构线程架构,并掌握对其控制和优化方法
    掌握CUDA平台的常用性能分析和调优工具:
    1.NVIDIA Nsight
    2.CUDA-GDB
    3.其他一些图形化的性能分析工具

GPU相关的linux命令

查看GPU类型:

 lspci | grep -i nvidia

image

lspci 是一个用于显示计算机上PCI设备信息的命令。

uname -m && cat /etc/*release

image

uname -m:这个命令用于获取机器的硬件架构信息。它会返回一个字符串,表示机器的架构类型,比如 x86_64、i686 等。
cat /etc/*release:这个命令用于查看操作系统的发行版信息。/etc/*release 是一个文件路径模式,它会匹配所有以 release 结尾的文件。在大多数 Linux 发行版中,这些文件包含了操作系统的版本和其他相关信息。

nvidia-smi -q

image

nvidia-smi -q是一个用于查询NVIDIA GPU的命令行工具。它提供了有关GPU硬件和驱动程序的详细信息,包括GPU的型号、驱动程序版本、温度、功耗、内存使用情况等。

nvidia-smi -L
image

nvidia-smi -L 是一个用于显示系统中所有 NVIDIA GPU 设备的命令。它可以帮助您确定系统中有多少个 NVIDIA GPU 设备以及它们的标识符。
当您运行 nvidia-smi -L 命令时,它会返回一个类似于以下格式的输出:

GPU 0: GeForce GTX 1080 (UUID: GPU-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)
GPU 1: GeForce GTX 1060 (UUID: GPU-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)

每个 GPU 设备都有一个唯一的标识符(UUID),以及一个友好的名称(例如 "GeForce GTX 1080")。通过这些信息,您可以确定系统中有多少个 GPU 设备,并使用它们进行编程或其他操作。

编程模型

编程模型是对底层计算机硬件架构的抽象表达
编程模型作为应用程序底层架构的桥梁
编程模型体现在程序开发语言和开发平台中
image

CUDA平台编程模型的特点:
CUDA平台对线程的管理

CUDA 平台提供了线程抽象接口控制GPU中的线程

CUDA平台对内存访问的控制

  • 主机内存和GPU设备内存
  • GPU和CPU之间内存数据传递

内核函数(kernel function)

  • 内核函数本身不包含任何并行性,由GPU协调处理线程执行内核
  • CPU 和 GPU处于异步执行状态

运行时GPU信息查询相关API

API接口方法:
获取GPU数量:cudaGetDeviceCount
设置需要使用的GPU:cudaSetDevice
获取GPU信息:cudaGetDeviceProperties

posted @ 2023-08-06 21:05  牛犁heart  阅读(95)  评论(0编辑  收藏  举报