赞
踩
最近观察发现,深度学习的例子有很多,但是模型的转换总是有很多问题,没有一个标准的转换方法。有的是直接用YOLO里面自带的export.py
进行转换,也有的人利用TensorRT
里面的bin
文件夹的trtexec.exe
转换,结果两种转换之后的格式不一样。所以最近就整理了网上的转换办法,借鉴了一些大佬的经验,写出了转换脚本,以记录。
export.py
文件直接可以将.pt
转换为.engine
或者.trt
。trtexec.exe
转换的话,就需要先转为.onnx
中间模型,在转换为.engine
/usr/src/tensorrt/bin/trtexec --onnx=yolov8n.onnx --saveEngine=yolov8n.engine --fp16
或者(FP16类型)
/usr/src/tensorrt/bin/trtexec --onnx=yolov8n.onnx --saveEngine=yolov8n.trt --fp16
说明:英伟达只有显卡算力在6.2
以上的才支持INT8
量化。
polygraphy
工具,个人Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。