赞
踩
docker pull nvidia/cuda:11.4.0-cudnn8-devel-ubuntu20.04
docker run -it --name lhb_trt --gpus all -v /home/data/hablee_data_dir/trt_02:/home/trt_02 nvidia/cuda:11.4.0-cudnn8-devel-ubuntu20.04 /bin/bash
官网地址:点击查看,根据自己的cuda
和cudnn
的版本选择对应的版本。然后解压到自己想放到的位置。
linux
:1. 首先使用命令:vim ~/.bashrc,打开文件
2. 然后在文件的最后编辑:export LD_LIBRARY_PATH=解压的tenosrrt的路径/lib:$LD_LIBRARY_PATH
例如我的是:export LD_LIBRARY_PATH=/home/trt_02/download/TensorRT-8.2.4.2/lib:$LD_LIBRARY_PATH
然后编辑:export LIBRARY_PATH=解压的tenosrrt的路径/lib::$LIBRARY_PATH
然后编辑:export PATH=/home/trt_02/download/TensorRT-8.2.4.2/bin:$PATH
3. 保存退出
4. 使用名:source ~/.bashrc 用于更新环境变量
windows
只要把解压后的lib
文件夹和bin
文件夹添加到环境变量
里面就可以了。(这个对windows
用户应该轻车熟路吧hhh),为了使其生效,应该需要重启电脑。
进入到解压后的tensorRT
的python
文件夹,例如/home/trt_02/download/TensorRT-8.2.4.2/python
,根据自己python
版本,选择对应的包进行安装。例如我的python是3.9,所以python -m pip install tensorrt-8.2.4.2-cp39-none-linux_x86_64.whl
trtexec --onnx=mymodel.onnx --saveEngine=mymodel.engine --fp16 --device=1
将一个mymodel.onnx
模型转为tensorrt
模型,并命名为mymodel.engine
,使用float16
的精度,指定gpu
编号为1进行运行。
import tensorrt
print(tensorrt.__version__)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。