赞
踩
前言:本篇博客为《基于树莓派4B的YOLOv5-Lite目标检测的移植与部署》的后续博客,主旨为帮助大家实现 ONNX 模型到 NCNN 模型的转换,并且在树莓派4B进行成功部署!正常情况下,NCNN 模型是优于 ONNX 模型的,但是作者实际测试下来发现貌似 ONNX 模型的FPS和精度感觉都略优秀于 NCNN 模型,读者朋友可以根据自己时间情况去选择模型的使用!
实验效果图:
YOLOv5-Lite的ONNX模型FPS:4.78
YOLOv5-Lite的NCNN模型FPS:3.77
按道理来说,NCNN 模型的推理速度是快于 ONNX 模型的,作者这边也不知道什么情况。
NCNN 的网络模型通常需要使用简化后的 ONNX 模型来转换,ONNX 模型依赖于原始的训练权重 Weight 的存在,故此我们需要使用自己的训练集于神经网络模型进行训练!
这部分的详解教程可以借鉴:http://t.csdn.cn/msjCZ
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。