当前位置:   article > 正文

CUDA编程模型

cuda编程模型

一、CUDA编程模型概述

并行计算的三层:

领域层,在编程和算法设计时考虑如何解析数据和函数;

逻辑层,在编程实现时确保线程和计算可以正确解决问题;

硬件层,通过理解线程如何映射到其核心从而提高性能

1.CUDA编程结构

        1.分配GPU内存

        2.从CPU内存中拷贝数据到GPU内存

        3.调用CUDA的kernel函数完成运算

        4.将数据从GPU拷贝回CPU

        5.释放GPU空间 

2. 内存管理

cudaMalloc:向GPU设备分配一定字节的线性内存,并返回指针。

cudaMemcpy:负责主机和设备直之间的数据传输。此函数以同步方式执行,在cudaMemcpy函数返回以及传输操作完成之前主机应用程序阻塞

主要需要注意cudaMemcpy函数

  1. cudaError_t cudaMemcpy(void * dst,const void * src,size_t count,
  2. cudaMemcpyKind kind)

主机到设备:cudaMemcpy(d_A,h_A,nBytes,cudaMemcpyHostToDevice)

设备到主机:cudaMemcpy(h_A,d_A,nBytes,cudaMemcpyDeviceToHost)

主机到主机:cudaMemcpy(d_A,h_A,nBytes,cudaMemcpyHostToHost)

设备到设备:cudaMemcpy(h_A,d_A,nBytes,cudaMemcpyDeviceToDevice)

CUDA的内存主要分为两部分主机端和设备端,而且是具有层次,简单如下图所示,主要由全局内存和共享内存组成。

3. CUDA 执行模型

3.1 CUDA内核由一组线程执行

所有线程运行相同的代码(SPMD), 每个线程都有一个ID,用于计算内存地址和做出控制决策。

 Block IDs 和Thread IDs。每个线程使用ID确定其作用于哪块数据。Block ID(1D,2D,3D),Thread ID(1D,2D,3D)。在核函数调用时需要 进行初始化i。

此处需要注意的是Block是一个组织线程的方式,并无明确硬件与其对应

3.2 线程层次结构

Grid:一组由一个kernel启动所产生的线程block,简单说一个kernel会对应一个Grid在全局内存中共享数据在运行时动态调度。

Block: 协作线程阵列(CTA),线程之间的同步,在共享内存中共享数据,1D、2D、3D, 最多512个线程(看CUDA版本)。

kernel:在线程上运行的代码部分。

通常一个grid会被组成成二维,block会被组织为三维。 

一个block内的线程可以通过共享内存、原子操作、同步等进行协作,不同block的线程则无法同步。因为不同block的线程可能分布在不同的SM中 。

关于网格和块的大小设置见下一节

3.3 线程的执行

        真正运行时一个warp的32个线程(类似于老式织布机的一排,织一次有32根线)运行在一个SM上,它们共享指令,每4个周期执行一条warp指令而且由SM进行动态调度。

 4. CUDA编程基础

4.1  启动CUDA核函数

kernel_name<<<grid, block>>>(argument list)

其中第一个值为网格维度,也就是所启动的block数量,第二个值为每个块中的线程数量。通过指定这两个值配置内核中的线程数量和线程的布局。

核函数的执行是异步的,可以使用cudaDevicesSynchronize(void)来进行强制主机程序等待。 

 4.2 编写核函数

函数类型限定符
限定符执行调用备注
__global__在设备端执行主机端、设备端均可调用必须有一个void返回类型
__device__在设备端执行仅设备端调用
__host__在主机端执行仅主机端调用可以省略

 __host__和__device__可以一起使用,这样函数在设备端、主机端均可调用。

 主机端的C向量加法:

  1. void sumArraysOnHost(float *A, float *B, float *C, const int N){
  2. for (int i = 0; i < N; i++)
  3. C[i] = A[i] + B[i];
  4. }

核函数的向量加法:

  1. __global__ void sumArraysOnGPU(float *A, float *B, float *C){
  2. int i = threadIdx.x;
  3. C[i] = A[i] + B[i];
  4. }

二者相比,核函数中的循环体消失了,换用了内置的线程坐标进行索引。如果每个向量有32个元素可以考虑sumArrayOnGPU<<<1,32>>>(float *A, float *B, float *C)进行调用。

4.3 处理错误

验证核函数:

        (1)在核函数中使用printf(Fermi版本以上)

        (2)将执行参数设置为<<<1,1>>>,模拟了串行执行程序,可用于调试和验证结果

检查错误:

        #define CHECK(call)

如:CHECK(cudaDeviceSYnchronize()),检查核函数中哪一步就在哪一步外使用CHECK。

4.4 示例程序:向量加法

  1. #include <cuda_runtime.h>
  2. #include <stdio.h>
  3. //错误处理宏
  4. #define CHECK(call)\
  5. {\
  6. const cudaError_t error = call; \
  7. if (error != cudaSuccess)\
  8. {\
  9. printf("Error: %s:%d, ",__FILE__, __LINE__);\
  10. printf("code:%d, reason: %s\n", error, cudaGetErrorString(error));\
  11. exit(1);\
  12. }\
  13. }
  14. void checkResult(float *hostRef, float *gpuRef, const int N)
  15. {
  16. double epsilon = 1.0E-8;
  17. bool match = 1;
  18. for (int i = 0; i<N; i++){
  19. if(abs(hostRef[i] - gpuRef[i]) > epsilon){
  20. match = 0;
  21. printf("Arrays do not match!\n");
  22. printf("host %5.2f gpu %5.2f at current %d\n", hostRef[i], gpuRef[i], i);
  23. break;
  24. }
  25. }
  26. if (match)
  27. printf("Array match.\n\n");
  28. }
  29. void sumArraysOnHost(float *A, float *B, float *C, const int N)
  30. {
  31. for (int idx = 0; idx<N; idx++){
  32. C[idx] = A[idx]+B[idx];
  33. }
  34. }
  35. __global__ void sumArraysOnGPU(float *A, float *B, float *C)
  36. {
  37. int i = threadIdx.x;
  38. C[i] = A[i]+B[i];
  39. }
  40. int main()
  41. {
  42. //printf("%s Starting...\n", argv[0]);
  43. //设置设备,有多个GPU的情况下
  44. int dev = 0;
  45. cudaSetDevice(dev);
  46. //设置向量的大小,此处设为32
  47. int nElem = 32;
  48. printf("Vector size: %d\n", nElem);
  49. //分配主机内存
  50. size_t nBytes = nElem * sizeof(float);
  51. float *h_A, *h_B, *hostRef, *gpuRef;
  52. h_A = (float *)malloc(nBytes);
  53. h_B = (float *)malloc(nBytes);
  54. hostRef = (float *)malloc(nBytes);
  55. gpuRef = (float *)malloc(nBytes);
  56. //对向量A、B进行初始化
  57. int i = 0;
  58. for (; i<nElem; i++){
  59. h_A[i] = i;
  60. h_B[i] = i;
  61. }
  62. memset(hostRef, 0, nBytes);
  63. memset(gpuRef, 0, nBytes);
  64. //分配GPU内存
  65. float *d_A, *d_B, *d_C;
  66. cudaMalloc((float**)&d_A, nBytes);
  67. cudaMalloc((float**)&d_B, nBytes);
  68. cudaMalloc((float**)&d_C, nBytes);
  69. //将数据从CPU内存传输至GPU内存
  70. cudaMemcpy(d_A, h_A, nBytes, cudaMemcpyHostToDevice);
  71. cudaMemcpy(d_B, h_B, nBytes, cudaMemcpyHostToDevice);
  72. //设置kernel函数的块数和线程数,此处为一个块,32线程
  73. dim3 block(nElem);
  74. dim3 grid(nElem / block.x);
  75. //调用kernel函数进行执行
  76. printf("Execution configuration <<<%d, %d>>>\n", grid.x, block.x);
  77. sumArraysOnGPU<<<grid, block>>>(d_A, d_B, d_C);
  78. //执行结束后将结果从GPU内存传输回CPU内存
  79. cudaMemcpy(gpuRef, d_C, nBytes, cudaMemcpyDeviceToHost);
  80. //在CPU同样执行一次加法,二者对比观察是否准确
  81. sumArraysOnHost(h_A, h_B, hostRef, nElem);
  82. //检查二者结果是否相同
  83. checkResult(hostRef, gpuRef, nElem);
  84. //释放GPU内存
  85. cudaFree(d_A);
  86. cudaFree(d_B);
  87. cudaFree(d_C);
  88. //释放CPU内存
  89. free(h_A);
  90. free(h_B);
  91. free(hostRef);
  92. free(gpuRef);
  93. return 0;
  94. }

运行结果:

 4.5 运行时间计算

第一种方法是在CPU使用cpuSecond()函数在核函数上下,同时加上cudaDeviceSynchronize()来计算时间。

第二种方法是使用nvprof工具

  1. //查看帮助
  2. nvprof --help
  3. //测试内核
  4. nvprof ./01-hello

5. 组织并行线程

这一节介绍每一个线程是怎么确定唯一的索引,然后建立并行计算,并且不同的线程组织形式是怎样影响性能的:

  • 二维网格二维线程块
  • 一维网格一维线程块
  • 二维网格一维线程块

5.1 使用块和线程建立矩阵索引

对于一个给定的线程,首先可以通过将线程和块索引映射到矩阵坐标上来获取线程块和线程索引的全局内存偏移量,然后将这些矩阵坐标映射到全局内存的存储单元中

第一步,线程和块索引映射到矩阵坐标上

        ix = threadIdx.x   +   blockIdx.x   *   blockDim.x

        iy = threadIdx.y   +   blockIdx.y   *   blockDim.y

第二步,将矩阵坐标映射至全局内存的索引上

        idx = iy   *   nx   +   ix

 这样我们就得到了每个线程的唯一标号,并且在运行时kernel是可以访问这个标号的。前面讲过CUDA每一个线程执行相同的代码,也就是异构计算中说的多线程单指令,如果每个不同的线程执行同样的代码,又处理同一组数据,将会得到多个相同的结果,显然这是没意义的,为了让不同线程处理不同的数据,CUDA常用的做法是让不同的线程对应不同的数据,也就是用线程的全局标号对应不同组的数据

全局内存中线性存储,6行8列:

我们要做管理的就是:

  • 线程和块索引(来计算线程的全局索引)
  • 矩阵中给定点的坐标(ix,iy)
  • (ix,iy)对应的线性内存的位置

代码检查: 

  1. #include <cuda_runtime.h>
  2. #include <stdio.h>
  3. #define CHECK(call)\
  4. {\
  5. const cudaError_t error = call; \
  6. if (error != cudaSuccess)\
  7. {\
  8. printf("Error: %s:%d, ",__FILE__, __LINE__);\
  9. printf("code:%d, reason: %s\n", error, cudaGetErrorString(error));\
  10. exit(1);\
  11. }\
  12. }
  13. void printMatrix(int *C, const int nx, const int ny)
  14. {
  15. int *ic = C;
  16. printf("\nMatrix: (%d.%d)\n", nx, ny);
  17. for (int iy = 0; iy < ny; iy++)
  18. {
  19. for (int ix = 0; ix < nx; ix++)
  20. {
  21. printf("%3d", ic[ix]);
  22. }
  23. ic += nx;
  24. printf("\n");
  25. }
  26. printf("\n");
  27. return;
  28. }
  29. __global__ void printThreadIndex(int *A, const int nx, const int ny)
  30. {
  31. int ix = threadIdx.x + blockIdx.x * blockDim.x;
  32. int iy = threadIdx.y + blockIdx.y * blockDim.y;
  33. unsigned int idx = iy * nx + ix;
  34. printf("thread_id (%d,%d) block_id (%d,%d) coordinate (%d,%d) global index"
  35. " %2d ival %2d\n", threadIdx.x, threadIdx.y, blockIdx.x, blockIdx.y,
  36. ix, iy, idx, A[idx]);
  37. }
  38. int main(int argc, char **argv)
  39. {
  40. printf("%s Starting...\n", argv[0]);
  41. // 获取可用的GPU设别信息
  42. int dev = 0;
  43. cudaDeviceProp deviceProp;
  44. CHECK(cudaGetDeviceProperties(&deviceProp, dev));
  45. printf("Using Device %d: %s\n", dev, deviceProp.name);
  46. CHECK(cudaSetDevice(dev));
  47. // 设置矩阵维度8X6
  48. int nx = 8;
  49. int ny = 6;
  50. int nxy = nx * ny;
  51. int nBytes = nxy * sizeof(float);
  52. // 分配主机内存
  53. int *h_A;
  54. h_A = (int *)malloc(nBytes);
  55. // 初始化数据
  56. for (int i = 0; i < nxy; i++)
  57. {
  58. h_A[i] = i;
  59. }
  60. printMatrix(h_A, nx, ny);
  61. // GPU分配内存
  62. int *d_MatA;
  63. CHECK(cudaMalloc((void **)&d_MatA, nBytes));
  64. // 从CPU内存传输数据至GPU内存
  65. CHECK(cudaMemcpy(d_MatA, h_A, nBytes, cudaMemcpyHostToDevice));
  66. // 设置执行配置。两行四列的block
  67. dim3 block(4, 2);
  68. dim3 grid((nx + block.x - 1) / block.x, (ny + block.y - 1) / block.y);
  69. // 执行kernel函数
  70. printThreadIndex<<<grid, block>>>(d_MatA, nx, ny);
  71. CHECK(cudaGetLastError());
  72. // 释放内存
  73. CHECK(cudaFree(d_MatA));
  74. free(h_A);
  75. // reset device
  76. CHECK(cudaDeviceReset());
  77. return (0);
  78. }

运行结果:

以其中threadIdx = (0, 0), blockIdx=  (0,1)为例。

        ix = 0 + 0 * 2 = 0

        iy = 0 + 1 * 2 = 2

在矩阵中为(0,2)

将矩阵坐标映射至全局内存的索引上

        idx = 2 * 8 + 0 = 16

5.2 使用二维网格和二维块对矩阵求和

在5.1的代码上进行修改

  1. int dimx = 32;
  2. int dimy = 32;
  3. dim3 block(dimx, dimy);
  4. dim3 grid((nx + block.x - 1) / block.x, (ny + block.y - 1) / block.y);
  5. iStart = seconds();
  6. sumMatrixOnGPU2D<<<grid, block>>>(d_MatA, d_MatB, d_MatC, nx, ny);
  7. cudaDeviceSynchronize();
  8. iElaps = seconds() - iStart;
  1. void sumMatrixOnHost(float *A, float *B, float *C, const int nx,
  2. const int ny)
  3. {
  4. float *ia = A;
  5. float *ib = B;
  6. float *ic = C;
  7. for (int iy = 0; iy < ny; iy++)
  8. {
  9. for (int ix = 0; ix < nx; ix++)
  10. {
  11. ic[ix] = ia[ix] + ib[ix];
  12. }
  13. ia += nx;
  14. ib += nx;
  15. ic += nx;
  16. }
  17. return;
  18. }
  1. // grid 2D block 2D
  2. __global__ void sumMatrixOnGPU2D(float *MatA, float *MatB, float *MatC, int nx,
  3. int ny)
  4. {
  5. unsigned int ix = threadIdx.x + blockIdx.x * blockDim.x;
  6. unsigned int iy = threadIdx.y + blockIdx.y * blockDim.y;
  7. unsigned int idx = iy * nx + ix;
  8. if (ix < nx && iy < ny)
  9. MatC[idx] = MatA[idx] + MatB[idx];
  10. }

5.3 使用一维网格和一维块对矩阵求和

配置如下:

  1. // invoke kernel at host side
  2. int dimx = 32;
  3. dim3 block(dimx, 1);
  4. dim3 grid((nx + block.x - 1) / block.x, 1);
  1. __global__ void sumMatrixOnGPU1D(float *MatA, float *MatB, float *MatC, int nx,
  2. int ny)
  3. {
  4. unsigned int ix = threadIdx.x + blockIdx.x * blockDim.x;
  5. if (ix < nx )
  6. for (int iy = 0; iy < ny; iy++)
  7. {
  8. int idx = iy * nx + ix;
  9. MatC[idx] = MatA[idx] + MatB[idx];
  10. }
  11. }

5.4使用二维网格一维块 

  1. // invoke kernel at host side
  2. int dimx = 32;
  3. dim3 block(dimx, 1);
  4. dim3 grid((nx + block.x - 1) / block.x, ny);
  1. // grid 2D block 1D
  2. __global__ void sumMatrixOnGPUMix(float *MatA, float *MatB, float *MatC, int nx,
  3. int ny)
  4. {
  5. unsigned int ix = threadIdx.x + blockIdx.x * blockDim.x;
  6. unsigned int iy = blockIdx.y;
  7. unsigned int idx = iy * nx + ix;
  8. if (ix < nx && iy < ny)
  9. MatC[idx] = MatA[idx] + MatB[idx];
  10. }

 总结:用不同的线程组织形式会得到正确结果,但是效率有所区别。从此例子中可以看出:

  • 改变执行配置(线程组织)能得到不同的性能
  • 传统的核函数可能不能得到最好的效果
  • 一个给定的核函数,通过调整网格和线程块大小可以得到更好的效果

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/881239
推荐阅读
相关标签
  

闽ICP备14008679号