当前位置:   article > 正文

linux下 yolov8 tensorrt模型部署_yolov8 rt加速

yolov8 rt加速

ubuntu下yolov8 tensorrt模型加速部署【实战】

TensorRT-Alpha基于tensorrt+cuda c++实现模型end2end的gpu加速,支持win10、linux,在2023年已经更新模型:YOLOv8, YOLOv7, YOLOv6, YOLOv5, YOLOv4, YOLOv3, YOLOX, YOLOR,pphumanseg,u2net,EfficientDet。
仓库TensorRT-Alpha:https://github.com/FeiYull/TensorRT-Alpha

一、加速结果展示

1.1 性能速览

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/83966
推荐阅读
相关标签