当前位置:   article > 正文

YOLO系列如何通过ncnn模型部署Android_yolov7 ncnn 安卓

yolov7 ncnn 安卓

ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。 ncnn 从设计之初深刻考虑手机端的部署和使用。 无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。 基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行, 开发出人工智能 APP,将 AI 带到你的指尖。 ncnn 目前已在腾讯多款应用中使用,如:QQ,Qzone,微信,天天 P 图等。

NCNN模型部署到移动端效果

NCNN功能概述

  1. 支持卷积神经网络,支持多输入和多分支结构,可计算部分分支

  2. 无任何第三方库依赖,不依赖 BLAS/NNPACK 等计算框架

  3. 纯 C++ 实现,跨平台,支持 Android / iOS 等

  4. ARM Neon 汇编级良心优化,计算速度极快

  5. 精细的内存管理和数据结构设计,内存占用极低

  6. 支持多核并行计算加速,ARM big.LITTLE CPU 调度优化

  7. 支持基于全新低消耗的 Vulkan API GPU 加速

  8. 可扩展的模型设计,支持 8bit 量化 和半精度浮点存储,可导入 caffe/pytorch/mxnet/onnx/darknet/keras/tensorflow(mlir) 模型

  9. 支持直接内存零拷贝引用加载网络模型

  10. 可注册自定义层实现并扩展

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/446737
推荐阅读
相关标签
  

闽ICP备14008679号