当前位置:   article > 正文

移动端推理引擎通用性小测_移动端的开源推理引擎

移动端的开源推理引擎

移动端推理引擎通用性小测

推理引擎

测试模型

模型支持情况

CPU 运行

模型MNNTensorFlow LitePaddle LiteTNNMindSpore LiteNCNN
MobileNet-V2OOOXOO
ResNet50-V1OOOOOO
SqueezeNet-V1.1OOOOOO
FasterRCNN-12OXXXXX
SuperResolution-10OOOOOO
GPT-2OXXXOX
Bertsquad-12OXXXXX

GPU 运行 (OpenCL 或 Vulkan)

模型MNNTensorFlow LitePaddle LiteTNNMindSpore LiteNCNN
MobileNet-V2OXOXOO
ResNet50-V1OXOOOO
SqueezeNet-V1.1OOOOOO
FasterRCNN-12XXXXXX
SuperResolution-10OOOXOO
GPT-2OXXXXX
Bertsquad-12OXXXXX

结论与后续

CPUGPU视觉文本
MNN7/76/75/52/2
Paddle-Lite4/74/74/50/2
TNN3/73/73/50/2
Mindspore-Lite5/73/74/51/2
NCNN4/74/74/50/2
Tensorflow-Lite4/72/74/50/2
  • MNN 全部模型均支持CPU运行,但GPU 跑 FasterRCNN12 出现错误(已于 2.6.2 修正)
  • 其他推理引擎对 视觉类模型支持较好,文本类模型支持较弱。
  • 带控制流的ONNX模型仅 MNN 转换运行成功
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/376560
推荐阅读
相关标签
  

闽ICP备14008679号