赞
踩
OpenVIVO主要工作流程如下图:
主要流程如下:
1:根据自己的训练模型需要配置Mode Optimizer.
2: 根据设置的模型参数运行Model Optimizer,生成相对应的IR(主要是xml和bin)
xml-主要用来描述网络拓扑结构
bin-包括生成的
weights and biases 二进制数据
3: 在实际应用场景种使用Inference Engine测试生成的IR
4: 在应用程序种调用Inference Engine相应接口,将生成的模型IR部署到实际环境中。
Model Optimizer 是一个跨平台命令行工具,用于促进训练与具体实施平台中的过渡,主要是进行静态模型分析 以及根据配置参照自动调整深度模型
Model Optimizer 被用来设计成支持常用的框架(Caffe, TensofFlow, MXNet, Kaldi, ONNX等),相当于封装了一层,便于进行开发。
Model Optimizer主要工作流程:
1:根据需要所用到的框架,配置Model Optimizer
2: 提供训练模型作为输入,包括网络拓扑以及参数
3:运行Model Optimizer(根据选择的网络拓扑进行训练)
4:IR作为Model Optimizer输出
Inference Engine是主要运行单元,并提供相应API
将IR作为输入
在目标硬件优化执行
提供嵌入式平台最佳执行性能方案
https://docs.openvinotoolkit.org/2019_R2/_docs_IE_DG_Introduction.html
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。