当前位置:   article > 正文

TensorRT从入门到了解(2)-学习笔记

TensorRT从入门到了解(2)-学习笔记

1.TensorRT的高性能部署简介

tensorRT,nvidia发布的dnn推理引擎,是针对nvidia系列硬件进行优化加速,实现最大程度的利用GPU资源,提升推理性能
tensorRT是业内nvidia系列产品部署落地时的最佳选择

这里主要是围绕https://github.com/shouxieai/learning-cuda-trt

https://github.com/shouxieai/tensorRT_cpp提供的方案开展讨论,使得能够使用、部署起来。

2.TensorRT驾驭方案

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

3.如何正确导出onnx

在这里插入图片描述在这里插入图片描述
例如,原始
在这里插入图片描述在这里插入图片描述在这里插入图片描述

4.动态batch和动态宽高的实现

在这里插入图片描述在这里插入图片描述在这里插入图片描述

5.实现一个自定义插件

在这里插入图片描述在这里插入图片描述

6.关于封装

在这里插入图片描述封装,关注业务逻辑,避免细节
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述主要是介绍该封装库代码工程,在github上,可下载下来研究

7.YoloV5案例

https://github.com/ultralytics/YOLOv5

YoloV5案例

8.Retinaface案例

https://github.com/biubug6/pytorch_Retinaface

Retinaface案例

9.高性能低耦合

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
便捷性
在这里插入图片描述

10.YOLOX集成

参考

1.详解TensorRT的C++/Python高性能部署,实战应用到项目

2.作者博客,手写AI
zifuture.com

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/446274
推荐阅读
相关标签
  

闽ICP备14008679号