CUDA入门
CUDA API包括三个,从低到高等级分别为 Thrust API Runtime API Driver API
用于CUDA的GPU是安装于主机系统中的独立设备
GPGPU运行在一个和主处理器相隔离的存储空间中
CUDA Kernel是可在主机代码中调用而在CUDA设备上运行的子程序(Kernel没有返回值)
Kernel的调用时异步的,即主机仅仅把要执行的Kernel顺序提交给GPGPU,并不等待执行完成,然后直接处理后面的其他任务
cudaThreadSynchronize() 使主机进入阻塞状态
cudaMemory() 实现阻塞式数据传输
GPU上的基本运行单位是线程
GPU上最大的可共享的内存区域成为全局内存
常量内存、高速缓存、共享内存、局域内存、纹理内存、寄存器
GPGPU编程的三条法则
1 将数据放入病始终存储于GPGPU
pcie总线速度大概是8gb/s,而GPU全局内存的速度大概是160-200gb/s
2 交给GPGPU足够多的任务
传输数据还要消耗时间,因此,最好让GPU工作时间能补偿传输所浪费的资源
3 注重GPGPU上的数据重用,以避免带宽限制
尽量重用数据以获取高性能
回归测试:经常用一段代码作为回归测试,测试kernel函数的正确性
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?