当前位置:   article > 正文

RKNN 模型转化的BUG_rknn 推理慢

rknn 推理慢

yolov5s  pytorch模型转onnx模型再转rknn模型

这里用的是rk3588

完成之后上板子跑,cpu全部干满,推理时间300ms+(正常只要10ms)

排查发现,从onnx就不一样了,如果用官方的推理代码,上板的模型一定不能加permute层。

先贴一个正常的:

这个是具慢的:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/854479
推荐阅读
相关标签
  

闽ICP备14008679号