赞
踩
yolov5s pytorch模型转onnx模型再转rknn模型
这里用的是rk3588
完成之后上板子跑,cpu全部干满,推理时间300ms+(正常只要10ms)
排查发现,从onnx就不一样了,如果用官方的推理代码,上板的模型一定不能加permute层。
先贴一个正常的:
这个是具慢的: