赞
踩
Neural Network Runtime(NNRt, 神经网络运行时)是面向AI领域的跨芯片推理计算运行时,作为中间桥梁连通上层AI推理框架和底层加速芯片,实现AI模型的跨芯片推理计算。本文介绍芯片厂商如何在将专有加速芯片接入NNRt,接入OpenHarmony社区生态。
整体适配思路:在虚拟机平台上通过Build.gn的方式编译得到可执行文件, 然后将可执行文件及对应鸿蒙系统的api库文件推送到板子,最后将.rknn后缀结尾的模型文件以及图片文件等输入资源拷贝至RK3568进行模型的运行。
在开发前,开发者需要先了解以下概念,以便更好地理解全文内容:
NNRt:eural Network Runtime,神经网络运行时,是本指导主要介绍的部件。
HDI:ardware Device Interface,硬件设备接口,是OHOS中系统组件与芯片组件通信的接口。
IDL :Interface Description Language,接口描述语言,是HDI接口的语言格式。
RKNN :Rockchip NPU 平台使用的模型类型,文件通常以.rknn为后缀结尾
运行平台 :RKNN 模型可以直接运行在 RK3568 平台上
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。