当前位置:   article > 正文

OpenVINO主要工作流程_openvivo

openvivo

OpenVIVO主要工作流程如下图:

主要流程如下:

1:根据自己的训练模型需要配置Mode Optimizer.

2: 根据设置的模型参数运行Model Optimizer,生成相对应的IR(主要是xml和bin)

          xml-主要用来描述网络拓扑结构

     bin-包括生成的weights and biases 二进制数据

3: 在实际应用场景种使用Inference Engine测试生成的IR

4: 在应用程序种调用Inference Engine相应接口,将生成的模型IR部署到实际环境中。

Model Optimizer  

Model Optimizer 是一个跨平台命令行工具,用于促进训练与具体实施平台中的过渡,主要是进行静态模型分析 以及根据配置参照自动调整深度模型

Model Optimizer 被用来设计成支持常用的框架(Caffe, TensofFlow, MXNet, Kaldi, ONNX等),相当于封装了一层,便于进行开发。

Model Optimizer主要工作流程:

1:根据需要所用到的框架,配置Model Optimizer

2: 提供训练模型作为输入,包括网络拓扑以及参数

3:运行Model Optimizer(根据选择的网络拓扑进行训练)

4:IR作为Model Optimizer输出

Inference Engine

Inference Engine是主要运行单元,并提供相应API

将IR作为输入

在目标硬件优化执行

提供嵌入式平台最佳执行性能方案

参考资料

https://docs.openvinotoolkit.org/2019_R2/_docs_IE_DG_Introduction.html 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/161597?site
推荐阅读
相关标签
  

闽ICP备14008679号