CUDA中确定你显卡的thread和block数

CUDA中确定你显卡的thread和block数

在进行并行计算时, 你的显卡所支持创建的thread数与block数是有限制的, 因此, 需要自己提前确定够用, 再进行计算, 否则, 你需要改进你的算法, 或者, 更新你的硬件了.

硬件方面总结

  1. 首先你需要知道你的显卡的Compute Capability , 在目前市面上绝大多数的都是支持1024 threads , 只有一些非常早期(Compute 1.x)的只是支持 512 threads. 如果是非常早期的一些显卡的话可以参阅这个WebPage
  2. 在你确定完你的Compute Capability 后, 根据此, 你的显卡的Compute Capability 如果是 1.x的话, Grid 支持的只有 1D 和 2D , 2.x 及以上才支持 3D 的 Grid , 而 block 则在1.x和2.x及更新的版本都支持3D , 在1.x / 2.x+的情况下, 每个block的最大支持分别是[512,512,64] / [1024,1024,64] ,现代显卡的Grid的size已经可以支持到[2^31-1,65535,65535]
  3. 每个block中的寄存器, 在Compute Capability为1.0,1.1/1.2,1.3/2.x-/3.0/3.2/3.5-5.2/5.3/6-6.1/6.2/7.0的情况下, 对应的寄存器总量不超过8k/16k/32k/64k/32k/64k/32k/64k/32k/64k .
  4. 每个Block中 , 在Compute Capability为1.x/2.x-6.2/7.0的情况下, 对应的 share memery不能超过 16kb/48kb/96kb .
  5. 你的block的数量,前面已经说了,现在的显卡Grid的size一般最大支持[65535,65535,1],因此,当你需要的block小于65535时,使用1D即可,如果你的Compute Capability 大于3.0的话,同样是1D,你的Grid最大可以支持231-1个block,2D或者3D时,你的grid最大可以支持[231-1,65535,65535]
  6. 如果你超过了你的显卡的硬件限制, 它会自动停止工作.

经验总结

实际上, 你想要充分利用你的显卡的性能, 就需要对你的代码仔细分析, 然后才能够 充分利用, 而不是每一条都照着官方给的标准进行. 简单总结下 :

  1. 每个 block 上的 threads 数都应该是warp大小的四舍五入,在所有当前硬件上都是32。
  2. 充分利用streaming multiprocessor unit, 使得你的 warp 始终都在运行, 从而来隐藏一些内存读取的时间, 简单说就是, 让你的所有warp始终都在计算, 这样子的话, 你的内存读取时间就可以基本被忽略(隐藏) .
  3. 利用好你的share memery 以及 sync .

参考

https://stackoverflow.com/questions/9985912/how-do-i-choose-grid-and-block-dimensions-for-cuda-kernels
https://en.wikipedia.org/wiki/CUDA

posted @ 2019-05-22 15:46  wangha  阅读(9993)  评论(0编辑  收藏  举报