当前位置:   article > 正文

开发者实战 | 基于 C# 和 OpenVINO™ 2023.0部署 YOLOv8 全系列模型

c# yolov8

点击蓝字

关注我们,让开发变得更有趣

以下文章来源英特尔物联网

文章作者:颜国进 飞桨开发者技术专家(PPDE),OpenVINOSharp 工具包作者,中国矿业大学硕士研究生

文章指导:杨雪锋 英特尔边缘计算创新大使,中国矿业大学副教授

1

基于 C# 和 OpenVINO™ 20

23.0部署 YOLOv8 全系列模型

1.1

项目简介

1.1.1

OpenVINO™

英特尔发行版 OpenVINO™ 工具套件基于 oneAPI 而开发,可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程, OpenVINO™ 可赋能开发者在现实世界中部署高性能应用程序和算法。

在推理后端,得益于 OpenVINO™ 工具套件提供的“一次编写,任意部署”的特性,转换后的模型能够在不同的英特尔硬件平台上运行,而无需重新构建,有效简化了构建与迁移过程。可以说,如果开发者希望在英特尔平台上实现最佳的推理性能,并具备多平台适配和兼容性, OpenVINO™ 是不可或缺的部署工具首选。

a8bab0bb877a17dc7a5e457665099ac9.png

图1 OpenVINO™ 

《OpenVINO™ 5周年重头戏!2023.0版本持续升级AI部署和加速性能》文章中介绍了OpenVINO™ 最新版本2023.0,引入了一系列旨在增强开发人员体验的新功能、改进和弃用,突出亮点是通过最大限度地减少离线转换、扩大模型支持和推进硬件优化来改善开发者之旅。

1.1.2

YOLOv8 

由 Ultralytics 开发的 Ultralytics YOLOv8 是一种尖端的,最先进的(SOTA)模型,它建立在以前的 YOLO 版本成功的基础上,并引入了新功能和改进,以进一步提高性能和灵活性。YOLOv8  设计为快速、准确且易于使用,使其成为各种对象检测、图像分割和图像分类任务的绝佳选择。

d478a955a53b41b99cb94d25a74eda99.png

图2 YOLOv8

YOLOv8 是 YOLO 系列目标检测算法的最新版本,相比于之前的版本,YOLOv8 具有更快的推理速度、更高的精度、更加易于训练和调整、更广泛的硬件支持以及原生支持自定义数据集等优势。这些优势使得 YOLOv8 成为了目前业界最流行和成功的目标检测算法之一。

2b82cdf11fd14336d20c32030eb2ad4a.png

图3 YOLOv8-det 模型

YOLOv8 提供了 YOLOv8-det、YOLOv8-seg、YOLOv8-pose 和 YOLOv8-cls 预训练模型,每种模型官方还提供了n、s、m、l、s五种模型格式。

1.1.3

项目内容 

该项目基于 OpenVINOTM  2023.0模型推理库,在C#语言下,调用封装的 OpenVINOTM 动态链接库,实现YOLOv8 模型部署推理,实现了在C#平台调用 OpenVINOTM 部署 YOLOv8 模型。

为了防止复现代码出现问题,列出以下代码开发环境,可以根据自己需求设置,注意 OpenVINOTM 一定是2022版本,其他依赖项可以根据自己的设置修改。

■ 操作系统:Windows 11

■ OpenVINOTM:2023.0

■ OpenCV:4.5.5

■ Visual Studio:2022

■ C#框架:.NET 6.0

■ OpenCvSharp:OpenCvSharp4

项目所有代码已经在开源代码仓开源,开源地址:

  1. GitHub: https://github.com/guojin-yan/OpenVinoSharp.git
  2. Gitee: https://gitee.com/guojin-yan/OpenVinoSharp.git

向右滑动查看完整代码

1.2

OpenVinoSharp

C# 是微软公司发布的一种由 C 和 C++ 衍生出来的面向对象的编程语言、运行于 .NET Framework 和 .NET Core (完全开源,跨平台)之上的高级程序设计语言。但 OpenVINOTM 未提供 C# 语言接口,因此无法直接在 C# 中使用,之前发布的文章《在 C# 中调用 OpenVINO™ 模型》通过动态链接库特性,实现了在 C# 中调用 OpenVINOTM 部署深度学习模型,简称:OpenVinoSharp。目前根据日常使用以及OpenVINOTM 升级,OpenVinoSharp 也进行了相应的改进。

目前 OpenVinoSharp 2.1已经推出,支持 OpenVINOTM 2023.0版本,图4 中给出了 OpenVinoSharp 实现原理。

0261b77728e189fbc7535de4a81ddb49.png

图 4 OpenVinoSharp 实现原理

1.2.1

 OpenVINOTM 2023.0安装配置

访问OpenVINOTM (openvino.ai)官网,进入到下载页面,按照图 5 进行选择,最后进行下载,下载后将文件解压到 C:\Program Files (x86)\Intel 文件夹下,并在 Path 环境变量下增加线面的环境变量:

  1. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\bin\intel64\Debug
  2. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\bin\intel64\Release
  3. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\3rdparty\tbb\bin

向右滑动查看完整代码

对于C++项目,增加以下配置:

Release 模式下: 

  1. 包含目录:
  2. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include
  3. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include\ie
  4. 库目录
  5. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\lib\intel64\Release
  6. 附加依赖项
  7. openvino.lib

向右滑动查看完整代码

Debug 模式

  1. 包含目录dnn_processing=dnn_backend=openvino:model=<YOUR PATH OF espcn.xml>
  2. 向右滑动查看完整代码
  3. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include
  4. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include\ie
  5. 库目录
  6. C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\lib\intel64\Debug
  7. 附加依赖项
  8. openvinod.lib

向右滑动查看完整代码

c1946a7150807e57e06bee0de32a33d6.png

图 5 下载选择

1.2.2

C++ 动态链接库

C++ 可以封装dll动态链接库,由于 C# 是基于 C/C++ 发展来的一门语言,因此 C# 可以通过动态链接库的形式调用 C++ 代码。下面简单对动态链接库接口进行介绍,具体实现可以参考源码。

(1)推理引擎结构体

Core是OpenVINOTM 工具套件里的推理核心类,该类下包含多个方法,可用于创建推理中所使用的其他类。在此处,需要在各个方法中传递模型信息,因此选择构建一个推理引擎结构体,用于存放各个变量。

  1. // @brief 推理核心结构体
  2. typedef struct openvino_core {
  3.    ov::Core core; // core对象
  4.    std::shared_ptr<ov::Model> model_ptr; // 读取模型指针
  5.    ov::CompiledModel compiled_model; // 模型加载到设备对象
  6.    ov::InferRequest infer_request; // 推理请求对象
  7. } CoreStruct;

向右滑动查看完整代码

其中Core是OpenVINOTM  工具套件里的推理机核心;shared_ptr 是读取本地模型的方法,可支持读取 Paddlepaddle 飞桨模型、ONNX 模型以及 IR 模型;CompiledModel 主要是将读取的本地模型映射到计算内核,由所指定的设备编译模型;InferRequest 是一个推理请求类,在推理中主要用于对推理过程的操作。CoreStruct 结构体指针会贯穿下面的各个接口方法,实现模型信息的传递。

(2)初始化推理模型

OpenVINOTM 推理引擎结构体是联系各个方法的桥梁,后续所有操作都是在推理引擎结构体中的变量上操作的,为了实现数据在各个方法之间的传输,因此在创建推理引擎结构体时,采用的是创建结构体指针,并将创建的结构体地址作为函数返回值返回。推理初始化接口主要整合了原有推理的初始化 Core 对象、读取本地推理模型、载入模型到执行硬件和创建推理请求步骤,并将这些步骤所创建的变量放在推理引擎结构体中。

初始化推理模型接口方法为:

  1. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE core_init(
  2.  const wchar_t* w_model_dir, const wchar_t* w_device, const wchar_t* w_cache_dir);

向右滑动查看完整代码

其中 w_model_dir 为推理模型本地地址,w_device 为模型运行设备名,w_cache_dir 是缓存文件路径。

(3)配置输入数据形状

OpenVINOTM 2022.1之后的版本支持了模型的动态输入并且支持动态设置模型输入形状,因此此处增加了模型形状设置接口:

  1. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE set_input_sharp(
  2.  void* core_ptr, const wchar_t* w_node_name, size_t * input_shape, int input_size);

向右滑动查看完整代码

其中 core_ptr 是 CoreStruct 结构体指针,在读取模型后,后续所有操作都是基于该结构体实现的;w_node_name 是待修改模型节点,input_shape 是模型节点,input_size 是形状长度。

(4)配置输入数据

模型读取后就需要项模型中加载推理数据,常见的推理数据为图片数据,图片一般为一个三通道的二维数据,因此无法直接在 C# 与 C++ 中传递,在该项目中主要是将图片数据转为二进制数据数据进行传递,下面接口实现了图片数据的加载:

  1. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE load_image_input_data(
  2. void* core_ptr, const wchar_t* w_node_name, uchar * image_data, size_t image_size, int type);

向右滑动查看完整代码

其中 w_node_name 为莫模型输入节点名,image_data 为图片数据的二进制数组,image_size 为图片数据长度,type 为数据处理方式,目前已经实现了常规变换、仿射变换、均方差归一化和常规归一化等方式。除了图片输入,一些模型还要求其他数据的输入,因此在该方法中,还增加了常规数据的加载方法:

  1. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE load_input_data(
  2.  void* core_ptr, const wchar_t* w_node_name, float* input_data);

向右滑动查看完整代码

(5)模型推理

将数据加载到模型后,就可以进行模型的推理,获取模型的推理结果,下面方法中封装了模型推理的方法,可以实现加载的数据进行推理。

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE core_infer(void* core_ptr);

向右滑动查看完整代码

(6)读取推理结果

在进行完模型推理后,就可以获取模型的推理结果,由于不同模型要求的数据格式不同,此处封装了 float 和 int 数据的读取方式:

  1. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE read_infer_result_I32(
  2.  void* core_ptr, const wchar_t* w_node_name, int* infer_result);
  3. EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE read_infer_result_I64(
  4.  void* core_ptr, const wchar_t* w_node_name, long long* infer_result);

向右滑动查看完整代码

其中 w_node_name 为输出节点名称,infer_result 为推理结果数组指针。

(7)删除推理核心结构体指针

推理完成后,我们需要将在内存中创建的推理核心结构地址删除,防止造成内存泄露,影响电脑性能,其接口该方法为:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE core_delet(void* core_ptr);

向右滑动查看完整代码

1.2.3

C# 构建 Core 推理类

上一步中我们将模型推理方法封装到了 dll 动态链接库中,生成了OpenVinoSharpExtern.dll文件,在 C# 中可以通过[DllImport()] 方式通过函数名称与参数对应,将 C++ 中的方法引入当 C# 中。

  1. private const string dll_extern = " OpenVinoSharpExtern.dll";
  2. [DllImport(dll_extern, CharSet = CharSet.Unicode, CallingConvention = CallingConvention.Cdecl)]
  3. public extern static IntPtr core_init(string model_dir, string device, string w_cache_dir);

向右滑动查看完整代码

上述代码通过 core_init 名称对应和参数返回指定应,将 core_init() 方法引入到 C# 中,同样的方式,可以将其他方法引入到 C# 中。

上一步我们引入了封装的 OpenVINOTM 动态链接库,为了更方便的使用,将其封装到 Core 类中。在不同方法之间,主要通过推理核心结构体指针在各个方法之间传递,在 C# 是没有指针这个说法的,不过可以通过 IntPtr 结构体来接收这个指针,为了防止该指针被篡改,将其封装在类中作为私有成员使用。

根据模型推理的步骤,构建模型推理类,表 1 中个除了构建的 Core 模型推理类的 API 接口,具体代码实现可以参考源码。

序号

API

参数解释

说明

1

方法

Core()

构造函数

初始化推理核心,

参数

string model

构造函数

string device

设备名称

string cache_dir

缓存路径

2

方法

void set_input_shape()

设置输入节点形状

根据节点维度设置

参数

string node_name

输入节点名称

int[] input_shape

形状数组

3

方法

void load_input_data()

设置图片/普通输入数据

type = 0: 方差归一化、常规缩放

type = 1: 普通归一化(1/255)、常规缩放

type = 2: 不归一化、常规缩放

type = 0: 方差归一化、仿射变换

type = 1: 普通归一化(1/255)、仿射变换

type = 2: 不归一化、仿射变换

参数

string node_name

输入节点名称

float[] input_data

输入数据

参数

string node_name

输入节点名称

byte[] image_data

图片数据

int type

数据处理类型:

4

方法

void infer()

模型推理


5

方法

void T[] read_infer_result()

读取推理结果数据

支持读取Float32、Int32、Int64格式数据

参数

string output_name

输出节点名

int data_size

输出数据长度

6

方法

void delet()

删除内存地址


表 1 OpenVinoSharp API 接口

1.2.4

NuGet 安装 OpenVinoSharp

为了方便使用 OpenVinoSharp,该项目提供了 NuGet 包,使用者可以直接通过 NuGet 包管理器直接安装使用,程序包中包含 OpenVINOTM 2023.0版本的库文件,因此使用时无需再安装OpenVINOTM 2023.0,直接安装 NuGet 包即可使用。

0467af8dcdc29920f2fd2a29e4a8f868.png

图 6 NuGet 包安装

1.3

获取和转换 YOLOv8 模型

1.3.1

安装ultralytics

为了更好的管理 python 库,此处采用 conda 安装 ultralytics 环境,使用 CMD 窗口输入如以下指令,进行环境创建并安装 ultralytics 依赖项:

  1. conda create -n ultralytics python==3.10
  2. conda activate ultralytics
  3. pip install ultralytics

向右滑动查看完整代码

edec10b0a1ab0cf6981b66f627441502.png

图 7 ultralytics 安装结果

1.3.2

导出 YOLOv8 模型

Ultralytics 支持直接导出预训练模型,并且可以直接导出 onnx 格式的模型,以 YOLOv8-det 模型为例,直接导出 YOLOv8s.onnx 文件,在命令行中输入以下命令

yolo export model=yolov8s.pt format=onnx

向右滑动查看完整代码

8c5a5771d3dbb36e7475a56af1acf9f9.png

图 8 YOLOv8 模型导出

通过上述命令可以获得 YOLOv8s.onnx 模型文件,同样的方式可以将 YOLOv8-seg、YOLOv8-pose 和 YOLOv8-cls 的模型文件。

1.3.3

安装 OpenVINOTM Python 版

OpenVINOTM 提供了 Python 语言接口,因此是可以直接安装 Python 版本使用,且 Python 版本至此模型的转换和量化,此处采用 conda 安装 OpenVINOTM 环境,使用 CMD 窗口输入如以下指令,进行环境创建并安装 OpenVINOTM 依赖项:

  1. conda create -n openvino2023_0 python=3.10
  2. conda activate openvino2023_0
  3. python -m pip install --upgrade pip
  4. pip install openvino-dev[ONNX,pytorch,tensorflow2]==2023.0.0

向右滑动查看完整代码

3d61fcde7e795edc2b5a289f69548e33.png

图 9 OpenVINOTM 安装

1.3.4

YOLOv8 模型量化

OpenVINOTM 提供了模型优化的工具,YOLOv8 模型精度默认为 f32 格式,该工具可以直接使用命令将模型转为 f16,以 YOLOv8-det 模型 YOLOv8s.onnx 文件为例,在命令行中输入:

mo -m yolov8s.onnx --compress_to_fp16

向右滑动查看完整代码

d150a92b93d5d4c02088297807c9d454.png

图 10 YOLOv8 模型量化

通过上述命令可以获得 f16 精度的 IR 格式的模型:YOLOv8s.xml、YOLOv8s.bin。同样的方式可以将YOLOv8-seg、YOLOv8-pose 和 YOLOv8-cls 模型的精度转为 f16。

1.3.5

Benchmark_app 测试 YOLOv8 模型

benchmark_app 是 OpenVINO™️ 工具套件自带的 AI 模型推理计算性能测试工具,可以指定在不同的计算设备上,在同步或异步模式下,测试出不带前后处理的纯 AI 模型推理计算性能。以YOLOv8-det 模型为例,在命令行中输入以下命令:

benchmark_app -m yolov8s.xml -d CPU

向右滑动查看完整代码

d6da0b944075e2db6105ffadfe65977e.png

图 11 YOLOv8-det 模型推理计算性能

上图为 YOLOv8-det 模型在 CPU:AMD R7 5800 异步推理计算性能,最多可以实现21帧推理。

1.4

OpenVinoSharp 部署 YOLOv8 模型

为了更好的演示 YOLOv8 模型在 C# 中部署,此处使用 WinForm 搭建了一个简单的软件进行展示,软件搭建详细代码可以参考源码,下面代码演示了 OpenVinoSharp 部署 YOLOv8 模型的核心代码:

  1. // 配置图片数据
  2. Mat image = new Mat(image_path); // 读取本地图片
  3. int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  4. Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  5. Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  6. image.CopyTo(new Mat(max_image, roi));
  7. float[] factors = new float[2]; // 图片缩放比例
  8. factors[0] = factors[1] = (float)(max_image_length / 640.0);
  9. // 读取模型,初始化推理核心
  10. Core core = new Core(model_path, "CPU");
  11. // 将图片转为二进制数据
  12. byte[] image_data = max_image.ImEncode(".bmp");
  13. //存储byte的长度
  14. ulong image_size = Convert.ToUInt64(image_data.Length);
  15. // 加载推理图片数据
  16. core.load_input_data("images", image_data, image_size, 1);
  17. // 模型推理
  18. core.infer();
  19. // 读取推理结果
  20. float[] result_array = core.read_infer_result<float>("output0", 8400 * 84);
  21. // 清理内存占用
  22. core.delet();
  23. // 创建结果处理类
  24. DetectionResult result_pro = new DetectionResult(classer_path, factors);
  25. // 处理推理结果
  26. result_image = result_pro.draw_result(result_pro.process_result(result_array), image.Clone());

向右滑动查看完整代码

1.4.1

YOLOv8-det 预测结果

用 Netron 软件打开 YOLOv8s.onnx,可以看到模型的输入和输出:

0d61d0bd83aaf1b6524025a98bd071a2.png

图 12 YOLOv8-det 模型节点

模型的输入节点为 “images”,数据类型为float32,输入为[1,3,640,640]大小的张量,代表输入为一个640×640大小的图片,图片加载模型前需要对数据进行归一化处理。

模型的输出节点为 “output0”,数据类型为float32,输出为[1,84,8400] 的张量,其中 “84” 的定义为:cx,cy,h,w 和80种类别的分数。“8400” 是指 YOLOv8 的3个检测头在图像尺寸为640时,有640/8=80, 640/16=40, 

640/32=20, 80x80+40x40+20x20=8400个输出单元格。

下图为 YOLOv8-det 模型的推理结果:

8f20827639bbbd3d8b5e7c7c003836b9.png

76a18ab0ac70d4bc850d4d1bc817a2e4.png

图 13 YOLOv8-det 模型预测结果

1.4.2

YOLOv8-cls 预测结果

用 Netron 软件打开 YOLOv8s-cls.onnx,可以看到模型的输入和输出:

93808e13d6743c49ac8a1242294d676f.png

图 14 YOLOv8-cls模型节点

模型的输入节点为 “images”,数据类型为 float32,输入为 [1,3,224,224] 大小的张量,代表输入为一个224×224大小的图片,图片加载模型前需要对数据进行归一化处理。

模型的输出节点为 “output0”,数据类型为 float32,输出为 [1,1000] 的张量,其中“1000”代表1000个分类情况的置信值,后续直接通过最大值索引和类别标签判断结果。

下图为 YOLOv8-cls 模型的推理结果:

fcce328d8af9cf56b03c2a9c5b6697e1.png

71b2de05dd1fe318a11bb9eb1b1ffaa4.png

图 15 YOLOv8-cls 模型预测结果

1.4.3

YOLOv8-seg 预测结果

用 Netron 软件打开 YOLOv8s-seg.onnx,可以看到模型的输入和输出:

252e3153f1242965da7ac98580cb0e41.png

图 16 YOLOv8-seg 模型节点

模型的输入节点与 YOLOv8 一致。模型的输出节点有两个,输出节点1为 “output0”,数据类型为 float32,输出为 [1,116,8400] 的张量,其中 116 的前 84 个字段跟 YOLOv8 目标检测模型输出定义完全一致,后 32 个字段用于计算 mask。输出节点2为 “output1”,数据类型为 float32,输出为 [1,32,160,160] 的张量, output0 后 32 个字段与 output1 的数据做矩阵乘法后得到的结果,即为对应目标的 mask。

下图为 YOLOv8-seg 模型的推理结果:

a306c830c59427b81158b1fce980b752.png

415b27e2af9333af494fe6d501aff732.png

图 17 YOLOv8-seg 模型预测结果

1.4.4

YOLOv8-pose 预测结果

用 Netron 软件打开 YOLOv8s-pose.onnx,可以看到模型的输入和输出

1fa06bc349cac79457ef5d00384f87ba.png

图 18 YOLOv8-pose 模型节点

模型的输入节点与 YOLOv8 一致。模型的输出节点为 “output0”,数据类型为 float32,输出为 [1,56,8400] 的张量, “56”指人体的预测框 (cx,cy,w,h,score) 和人体17个关键点 (x,y,score) 的预测结果,5+17×3=56。

下图为 YOLOv8-pose 模型的推理结果:

a1834f91a806193a43971f6e3f8ae2e3.png

4a934117d4e0f2f931c35d87a0e74ad5.png

图 19 YOLOv8-pose 模型预测结果

1.5

总结

C# 作为一门比较高级的编程语言,在 Windows 平台上有很好的支持,可以很容易实现桌面软件的开发,并且拥有自动的垃圾回收机制,可以实现自动内存管理,极大的简化了编码过程,因此在当前工业领域有很广泛的应用。而 OpenVINO™ 凭借着极强的推理性能和硬件支持,在模型部署领域大放异彩。

因此实现在 C# 平台使用 OpenVINO™ 部署深度学习模型,打破了 OpenVINO™ 与 C# 之间的壁垒,会使得模型部署在工业领域应用变得更加容易。


--END--

  1. 你也许想了解(点击蓝字查看)⬇️➡️ OpenVINO™ DevCon 2023重磅回归!英特尔以创新产品激发开发者无限潜能➡️ 5周年更新 | OpenVINO™  2023.0,让AI部署和加速更容易➡️ OpenVINO™5周年重头戏!2023.0版本持续升级AI部署和加速性能➡️ OpenVINO™2023.0实战 | 在 LabVIEW 中部署 YOLOv8 目标检测模型➡️ 开发者实战系列资源包来啦!➡️ 以AI作画,祝她节日快乐;简单三步,OpenVINO™ 助你轻松体验AIGC
  2. ➡️ 还不知道如何用OpenVINO™作画?点击了解教程。➡️ 几行代码轻松实现对于PaddleOCR的实时推理,快来get!➡️ 使用OpenVINO 在“端—边—云”快速实现高性能人工智能推理➡️ 图片提取文字很神奇?试试三步实现OCR!➡️【Notebook系列第六期】基于Pytorch预训练模型,实现语义分割任务➡️使用OpenVINO™ 预处理API进一步提升YOLOv5推理性能
  1. 扫描下方二维码立即体验 
  2. OpenVINO™ 工具套件 2023.0

点击 阅读原文 立即体验OpenVINO 2023.0

e443674b04355e3bfaf21965adf471b7.png

文章这么精彩,你有没有“在看

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/122510
推荐阅读
相关标签
  

闽ICP备14008679号