赞
踩
tensorRT,nvidia发布的dnn推理引擎,是针对nvidia系列硬件进行优化加速,实现最大程度的利用GPU资源,提升推理性能
tensorRT是业内nvidia系列产品部署落地时的最佳选择
这里主要是围绕https://github.com/shouxieai/learning-cuda-trt
https://github.com/shouxieai/tensorRT_cpp提供的方案开展讨论,使得能够使用、部署起来。
例如,原始
封装,关注业务逻辑,避免细节
主要是介绍该封装库代码工程,在github上,可下载下来研究
https://github.com/ultralytics/YOLOv5
https://github.com/biubug6/pytorch_Retinaface
便捷性
1.详解TensorRT的C++/Python高性能部署,实战应用到项目
2.作者博客,手写AI
zifuture.com
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。