当前位置:   article > 正文

CUDA10.1配置VS2017_vs2017+cuda10.1

vs2017+cuda10.1

目录

一  CUDA 安装

二  CUDA环境变量配置

三  CUDA配置VS2017


一  CUDA 安装

   1.1 CUDA下载

     网址:https://developer.nvidia.com/cuda-toolkit-archive

 

可以根据需要下载不同版本的CUDA安装包。

 

1.2 CUDA安装

   1.2.1 双击下载的.exe文件安装

  1.2.2 点击‘OK’

 1.2.3 上一步解压完成后,会自动跳到下图,点击‘同意并继续’即可,由于我已经安装过了,下图是我在网上找的一个图,各版             本都一样

 

二  CUDA环境变量配置

    2.1 右击此电脑→属性→高级系统设置→环境变量

 

 

2.2 系统变量里添加:

      CUDA_SDK_PATH = C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.1

      CUDA_LIB_PATH = %CUDA_PATH%\lib\x64

      CUDA_BIN_PATH = %CUDA_PATH%\bin

      CUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64

      CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib\x64

注意:CUDA _PATH与CUDA _PATH_V10_1是CUDA安装时自动添加的;

          CUDA _PATH_V10_1中的10_1是你安装CUDA的版本号

 

2.3 添加以下到系统变量path中,添加完点确定

      %CUDA_LIB_PATH%

      %CUDA_BIN_PAHT%

     %CUDA_SDK_BIN_PAHT%

      %CUDA_SDK_LIB_PATH%

 

 

2.4 重启电脑,然后打开cmd,输入: set cuda   即可看到下图

 

2.5 检查cuda是否安装好, 打开cmd,

      2.5.1  输入:cd C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite

                 输入之后,注意是否为自己安装的目录,然后按‘Enter’键

     2.5.2 找到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite目录下的deviceQuery.exe,在                 cmd里输入:deviceQuery.exe

上图中Result=PASS,表示安装好,否则Result=Fail重装或更换cuda版本吧。

 

2.5.3 找到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite目录下的bandwidthTest.exe,在                cmd里输入:bandwidthTest.exe

上图中Result=PASS,表示安装好,否则Result=Fail重装或更换cuda版本吧。

 

三  CUDA配置VS2017

3.1  打开VS2017新建工程

 

3.2 右击源文件→添加→新建项→CUDA C/C++ File;创建一个.cu文件

 

 

 

3.3 右击项目名称test_cuda2→生成依赖项→生成自定义,→选择CUDA10.1→确定

 

 

3.4 右击cuda_test.cu文件→属性→配置属性→常规→项类型→CUDA C/C++

 

 

3.5 右击test_cuda2→属性

 

3.5.1→VC++目录。在包含目录中添加C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\include;在库目录中添加                               C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\lib\x64。

注意:要根据自己的CUDA安装添加正确的目录

 

 

3.5.2 →链接器→输入→附加依赖项。再附加依赖项中添加相应的.lib文件名称

   我这里加的比较多cublas.lib

cublasLt.lib

cuda.lib

cudadevrt.lib

cudart.lib

cudart_static.lib

cufft.lib

cufftw.lib

curand.lib

cusolver.lib

cusparse.lib

nppc.lib

nppial.lib

nppicc.lib

nppicom.lib

nppidei.lib

nppif.lib

nppig.lib

nppim.lib

nppist.lib

nppisu.lib

nppitc.lib

npps.lib

nvblas.lib

nvgraph.lib

nvml.lib

nvrtc.lib

OpenCL.lib

 

 

3.6  配置成功后,这里附带一个测试程序:

  1. // CUDA runtime 库 + CUBLAS 库
  2. #include "cuda_runtime.h"
  3. #include "cublas_v2.h"
  4. #include <time.h>
  5. #include <iostream>
  6. using namespace std;
  7. // 定义测试矩阵的维度
  8. int const M = 5;
  9. int const N = 10;
  10. int main()
  11. {
  12. // 定义状态变量
  13. cublasStatus_t status;
  14. // 在 内存 中为将要计算的矩阵开辟空间
  15. float *h_A = (float*)malloc(N*M * sizeof(float));
  16. float *h_B = (float*)malloc(N*M * sizeof(float));
  17. // 在 内存 中为将要存放运算结果的矩阵开辟空间
  18. float *h_C = (float*)malloc(M*M * sizeof(float));
  19. // 为待运算矩阵的元素赋予 0-10 范围内的随机数
  20. for (int i = 0; i < N*M; i++) {
  21. h_A[i] = (float)(rand() % 10 + 1);
  22. h_B[i] = (float)(rand() % 10 + 1);
  23. }
  24. // 打印待测试的矩阵
  25. cout << "矩阵 A :" << endl;
  26. for (int i = 0; i < N*M; i++) {
  27. cout << h_A[i] << " ";
  28. if ((i + 1) % N == 0) cout << endl;
  29. }
  30. cout << endl;
  31. cout << "矩阵 B :" << endl;
  32. for (int i = 0; i < N*M; i++) {
  33. cout << h_B[i] << " ";
  34. if ((i + 1) % M == 0) cout << endl;
  35. }
  36. cout << endl;
  37. /*
  38. ** GPU 计算矩阵相乘
  39. */
  40. // 创建并初始化 CUBLAS 库对象
  41. cublasHandle_t handle;
  42. status = cublasCreate(&handle);
  43. if (status != CUBLAS_STATUS_SUCCESS)
  44. {
  45. if (status == CUBLAS_STATUS_NOT_INITIALIZED) {
  46. cout << "CUBLAS 对象实例化出错" << endl;
  47. }
  48. getchar();
  49. return EXIT_FAILURE;
  50. }
  51. float *d_A, *d_B, *d_C;
  52. // 在 显存 中为将要计算的矩阵开辟空间
  53. cudaMalloc(
  54. (void**)&d_A, // 指向开辟的空间的指针
  55. N*M * sizeof(float) // 需要开辟空间的字节数
  56. );
  57. cudaMalloc(
  58. (void**)&d_B,
  59. N*M * sizeof(float)
  60. );
  61. // 在 显存 中为将要存放运算结果的矩阵开辟空间
  62. cudaMalloc(
  63. (void**)&d_C,
  64. M*M * sizeof(float)
  65. );
  66. // 将矩阵数据传递进 显存 中已经开辟好了的空间
  67. cublasSetVector(
  68. N*M, // 要存入显存的元素个数
  69. sizeof(float), // 每个元素大小
  70. h_A, // 主机端起始地址
  71. 1, // 连续元素之间的存储间隔
  72. d_A, // GPU 端起始地址
  73. 1 // 连续元素之间的存储间隔
  74. );
  75. cublasSetVector(
  76. N*M,
  77. sizeof(float),
  78. h_B,
  79. 1,
  80. d_B,
  81. 1
  82. );
  83. // 同步函数
  84. cudaThreadSynchronize();
  85. // 传递进矩阵相乘函数中的参数,具体含义请参考函数手册。
  86. float a = 1; float b = 0;
  87. // 矩阵相乘。该函数必然将数组解析成列优先数组
  88. cublasSgemm(
  89. handle, // blas 库对象
  90. CUBLAS_OP_T, // 矩阵 A 属性参数
  91. CUBLAS_OP_T, // 矩阵 B 属性参数
  92. M, // A, C 的行数
  93. M, // B, C 的列数
  94. N, // A 的列数和 B 的行数
  95. &a, // 运算式的 α 值
  96. d_A, // A 在显存中的地址
  97. N, // lda
  98. d_B, // B 在显存中的地址
  99. M, // ldb
  100. &b, // 运算式的 β 值
  101. d_C, // C 在显存中的地址(结果矩阵)
  102. M // ldc
  103. );
  104. // 同步函数
  105. cudaThreadSynchronize();
  106. // 从 显存 中取出运算结果至 内存中去
  107. cublasGetVector(
  108. M*M, // 要取出元素的个数
  109. sizeof(float), // 每个元素大小
  110. d_C, // GPU 端起始地址
  111. 1, // 连续元素之间的存储间隔
  112. h_C, // 主机端起始地址
  113. 1 // 连续元素之间的存储间隔
  114. );
  115. // 打印运算结果
  116. cout << "计算结果的转置 ( (A*B)的转置 ):" << endl;
  117. for (int i = 0; i < M*M; i++) {
  118. cout << h_C[i] << " ";
  119. if ((i + 1) % M == 0) cout << endl;
  120. }
  121. // 清理掉使用过的内存
  122. free(h_A);
  123. free(h_B);
  124. free(h_C);
  125. cudaFree(d_A);
  126. cudaFree(d_B);
  127. cudaFree(d_C);
  128. // 释放 CUBLAS 库对象
  129. cublasDestroy(handle);
  130. getchar();
  131. return 0;
  132. }

 

程序运行结果:

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/305923
推荐阅读
  

闽ICP备14008679号