赞
踩
之前我们已经通过wsl安装好ubuntu以及相关配置,这里在安装好的基础上进行cuda、cudnn、tensorrt的安装,并总结相关的报错,以及解决方案
cuda版本选择:CUDA Toolkit Archive | NVIDIA Developer
1. cuda卸载命令
- sudo apt-get --purge remove "*cuda*" "*cublas*" "*cufft*" "*cufile*" "*curand*" \
- "*cusolver*" "*cusparse*" "*gds-tools*" "*npp*" "*nvjpeg*" "nsight*"
- sudo apt-get autoremove
2. cudnn卸载命令
- sudo apt-get purge libcudnn8
- sudo apt-get purge libcudnn8-dev
3. tensorRT卸载命令(因为有可能下载python对用的tensorrt,所以会有pip的卸载)
- sudo apt-get purge "libnvinfer*"
- sudo apt-get purge "nv-tensorrt-repo*"
- sudo apt-get purge graphsurgeon-tf onnx-graphsurgeon
- pip3 uninstall tensorrt
- pip3 uninstall uff
- pip3 uninstall graphsurgeon
- pip3 uninstall onnx-graphsurgeon
- python3 -m pip uninstall nvidia-tensorrt
4. torch、torchvision、torchaudio卸载(比如在anaconda环境下你安装的这3个包的cuda版本与前面几个没有保持一致性,卸载重装)cudnn卸载命令
pip uninstall torch torchvision torchaudio
确定安装的版本,比如我这里是cuda11.6(小于等于nvidia-smi的,建议直接安装等于11.6,别想太多,否则因为你安装了小于等又没有保持所有cuda版本的一致性而报错,直接安装等于nvidia-smi显示的版本)
注意WSL ubuntu安装cuda有它特殊的安装,跟其他非wsl ubuntu的安装不一样
1. 选择版本安装11.6,点进对应cuda toolkit版本选择的网址:CUDA Toolkit Archive | NVIDIA Developer
2. 选择对应的版本进行下载,比如11.6.2(11.6.1,11.6.0都可以),点击对应的选项,一定要选择WSL-Ubuntu
3. 在网页下方会弹出安装命令,依次执行
- wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
- sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
- wget https://developer.download.nvidia.com/compute/cuda/11.6.2/local_installers/cuda-repo-wsl-ubuntu-11-6-local_11.6.2-1_amd64.deb
- sudo dpkg -i cuda-repo-wsl-ubuntu-11-6-local_11.6.2-1_amd64.deb
- sudo apt-key add /var/cuda-repo-wsl-ubuntu-11-6-local/7fa2af80.pub
- sudo apt-get update
- sudo apt-get -y install cuda
4.验证
- # 直接在终端运行
- sudo touch /etc/profile.d/cuda.sh
- echo 'export PATH=/usr/local/cuda/bin/:$PATH' | sudo tee -a /etc/profile.d/cuda.sh
- echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64/:/usr/lib/wsl/lib/:$LD_LIBRARY_PATH' | sudo tee -a /etc/profile.d/cuda.sh
-
- # 这个会根据vim ~/.bsahrc去编辑,再source ~/.bashrc
- export PAHT=/usr/local/cuda/bin:$PATH
- export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
- export PATH=/usr/local/cuda-11.6/bin${PATH:+:${PATH}}
- export LD_LIBRARY_PATH=/usr/local/cuda-11.6/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
- export CUDA_HOME=/usr/local/cuda-11.6
nvcc -V
CUDNN选择对应的tar包进行安装
1. 进入到cudnn的官方下载网址:Log in | NVIDIA Developer,勾选I agree
2. 注意到勾选后,出现了v8.9.7这些版本可能很新,找不到11.6的,因此点击Archived cuDNN Releases,出现如下界面,此时可选版本变多
3. 根据自己的cuda版本去选择,发现出现了11.5但没出现11.6,可以推测在上面几个版本,再通过选择tar包时,显示的文件名(会弹出cuda的版本)进行最后的确认,我选择的是8.4.0
4. 选择Local Installer for Linux86_64(Tar)。千万别选错了Tar包。
5. 将下载后的tar包复制到ubuntu的一个文件夹下,本文是home/用户名下的Downloads,最后通过解压安装,然后进行配置即可。
- tar -xvf cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive.tar.xz
- sudo cp cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include
- sudo cp -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64
- sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
6. 验证是否安装成功,输入如下命令,显示如下图即安装成功
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
8.4.0与tar包显示一致,安装成功
TensorRT选择对应的tar包进行安装
1. 进入到TensorRT官方下载网址Log in | NVIDIA Developer,点击勾选I agree
2. 选择8.4 GA,注意到越网上对应的cuda版本越高,CUDA 11.6在8.4GA上可以找到
3. 将下载后的tar包复制到ubuntu的一个文件夹下,本文是home/用户名下的Downloads,最后通过解压安装,然后进行配置即可。安装完成后会出现TensorRT-(版本)的文件夹,这里我们已经安装好了
解压安装命令:tar -xzvf TensorRT-version.Linux.{arch}-gnu.cuda.{cudnn}.tar.gz
tar -xzvf TensorRT-8.4.1.5.Linux.x86_64-gnu.cuda-11.6.cudnn8.4.tar.gz
4. 解压后的文件名为TensorRT-{版本名},该文件夹下有如下文件目录
5. 将TensorRT 下的lib绝对路径添加到系统环境中(根据自己的安装目录来)
export LD_LIBRARY_PATH=LDLIBRARYPATH:<TensorRT−{version}/lib>
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/xionglang/Downloads/TensorRT-8.4.1.5/lib
6. 切换到python目录下,安装tensorrt python whl文件
注意:这里的pip安装一定是下载到自己的虚拟环境下,比如anaconda下pytorch环境激活后
根据当前环境的python版本安装对应的tensorrt, 我的当前环境python为3.9,就安装3.9对应的tensorrt whl文件
- cd python
- pip install tensorrt-8.4.1.5-cp39-none-linux_x86_64.whl
7. 安装装其他whl包, 根据自己的目录下文件名安装
- # 安装uff whl
- cd ../uff
- pip install uff-0.6.9-py2.py3-none-any.whl
-
- # 安装graphsurgeon whl
- cd ../graphsurgeon
- pip install graphsurgeon-0.4.6-py2.py3-none-any.whl
-
- # 安装onnx_graphsurgeon whl
- cd ../onnx_graphsurgeon
- pip install onnx_graphsurgeon-0.3.12-py2.py3-none-any.whl
8. 验证安装
sudo find / -name NvInferVersion.h
- # 切换到TensorRT-{版本}/samples/sampleOnnxMNIST/目录下编译
- cd samples/sampleOnnxMNIST/
- make
- # 切换到TensorRT-{版本}/targets/x86_64-linux-gnu/bin目录下运行sample_onnx_mnist
- cd ../../targets/x86_64-linux-gnu/bin/
- ./sample_onnx_mnist
- python
- import tensorrt
- print(tensorrt.__version__)
- assert tensorrt.Builder(tensorrt.Logger())
注意到若assert tensorrt.Builder(tensorrt.Logger())弹出报错多半你的cuda版本对应不上,卸载重装tensorrt
最后我们在虚拟环境内安装的torch、torchvision、以及torchaudio也要保证cuda与上面3个保持一致性,去pytorch whl网站去下载对应版本的文件https://download.pytorch.org/whl/torch_stable.html,然后进行安装
- # torch安装
- pip install torch-1.12.0+cu116-cp39-cp39-linux_x86_64.whl
-
- # torchaudio安装
- pip install torchaudio-0.12.0+cu116-cp39-cp39-linux_x86_64.whl
-
- # torchvision安装
- pip install torchvision-0.13.0+cu116-cp39-cp39-linux_x86_64.whl
以上就是CUDA、CUDNN与TensorRT的安装,走了很多坑,这是最有效的方式。windows以及其他ubuntu同理
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。