当前位置:   article > 正文

OpenVINO +YOLOX最新版本推理演示_yolox的输出格式

yolox的输出格式

YOLOX模型ONNX格式说明

我记得大概是在去年七月份的时候我写过一篇文章是介绍YOLOX+OpenVINO推理的,下载YOLOX的ONNX格式模型(github上可以下载)

https://github.com/Megvii-BaseDetection/YOLOX/tree/main/demo/ONNXRuntimehttps://github.com/Megvii-BaseDetection/YOLOX/releases/download/0.1.1rc0/yolox_s.onnx

下载ONNX格式模型,打开之后如图:

输入格式:1x3x640x640,默认BGR,无需归一化。输出格式:1x8400x85

01什么是85

其中85的前四个是cx、cy、w、h大小,第五个是object预测得分,后面80个是COCO类别。

02什么是8400

模型在数据输入端几乎与YOLOv5的代码一致,没有什么特别之处,唯一不同的在于输出层的解析,是把三个不同的输出层合并在一个里面了,分别是80x80, 40x40, 20x20, 每个特征点预测,所以总数才会是80x80+40x40+20x20 =8400

03输出层解析解密

最后一层输出,这点跟YOLOv5最新版本输出层有点相似,但是YOLOv5的输出层更近一步,已经计算了相关的矩形框位置信息,直接输出就是绝对位置信息,而YOLOX还是输出原始的相对位置信息,需要解析一波才行(跟最新的YOLOv5相同),说明YOLOX的工程化方面还有待提升!不是开源就完事了!

OpenVINO推理解析

必须说明一点,参考了官方的部分代码,然后在上面猛改一通(原因是官方代码写的不是很好),改完之后,封装成一个类了,主要的方法跟我封装的YOLOv5的推理类相似,导出了两个函数方法

void YOLOXDetector::initConfig(std::string onnxpath, float nms, float score)

该方法表示初始化IE,然后加载模型,设置nms阈值与置信度阈值score,创建一个推理请求,同时初始化每一层上对应每个特征点尺度比率。这部分的代码如下:

  1. void YOLOXDetector::initConfig(std::string onnxpath, float nms, float score) {
  2.     this->nms_threshold = nms;
  3.     this->score_threshold = score;
  4.     Core ie;
  5.     CNNNetwork network = ie.ReadNetwork(onnxpath);
  6.     InputInfo::Ptr input_info = network.getInputsInfo().begin()->second;
  7.     this->input_name = network.getInputsInfo().begin()->first;
  8.     DataPtr output_info = network.getOutputsInfo().begin()->second;
  9.     this->out_name = network.getOutputsInfo().begin()->first;
  10.     output_info->setPrecision(Precision::FP32);
  11.     ExecutableNetwork executable_network = ie.LoadNetwork(network, "CPU");
  12.     this->infer_request = executable_network.CreateInferRequest();
  13.     std::vector<int> strides = { 81632 };
  14.     generate_grids_and_stride(INPUT_W, INPUT_H, strides, grid_strides);
  15. }

检测函数

void detect(cv::Mat & frame, std::vector&results);

该方法完成检测,并把检测结果作为resulte返回,相关的代码实现可以参考之前的文章,感觉并没有什么不同,其中最大的不同的地方是对输出结果的解析,这边代码作为单独的方法函数实现如下(参考官方):

  1. void YOLOXDetector::generate_yolox_proposals(std::vector<GridAndStride> grid_strides, const float* feat_ptr, float prob_threshold, std::vector<DetectResult>& objects)
  2. {
  3.     const int num_anchors = grid_strides.size();
  4.     for (int anchor_idx = 0; anchor_idx < num_anchors; anchor_idx++)
  5.     {
  6.         const int grid0 = grid_strides[anchor_idx].grid0;
  7.         const int grid1 = grid_strides[anchor_idx].grid1;
  8.         const int stride = grid_strides[anchor_idx].stride;
  9.         const int basic_pos = anchor_idx * (NUM_CLASSES + 5);
  10.         // yolox/models/yolo_head.py decode logic
  11.         float x_center = (feat_ptr[basic_pos + 0+ grid0* stride;
  12.         float y_center = (feat_ptr[basic_pos + 1+ grid1* stride;
  13.         float w = exp(feat_ptr[basic_pos + 2]) * stride;
  14.         float h = exp(feat_ptr[basic_pos + 3]) * stride;
  15.         float x0 = x_center - w * 0.5f;
  16.         float y0 = y_center - h * 0.5f;
  17.         float box_objectness = feat_ptr[basic_pos + 4];
  18.         for (int class_idx = 0class_idx < NUM_CLASSES; class_idx++)
  19.         {
  20.             float box_cls_score = feat_ptr[basic_pos + 5 + class_idx];
  21.             float box_prob = box_objectness * box_cls_score;
  22.             if (box_prob > prob_threshold)
  23.             {
  24.                 DetectResult obj;
  25.                 obj.box.x = x0;
  26.                 obj.box.y = y0;
  27.                 obj.box.width = w;
  28.                 obj.box.height = h;
  29.                 obj.classId = class_idx;
  30.                 obj.score = box_prob;
  31.                 objects.push_back(obj);
  32.             }
  33.         }
  34.     }
  35. }

最终调用该类实现推理就显得特别简单,对图像跟视频都是一样,使用下面的代码:

  1. detector->initConfig(this->settings->getOnnxModelPath(), score, conf);
  2. std::vector<DetectResult> results;
  3. detector->detect(frame, results);

最后我发现在onnxruntime上面也一样可以,基本上重用了大部分的代码,然后把它们与我之前写YOLOv5+QT的演示整合了一下,这样就变成YOLOv5+YOLOx支持OpenVINO/ONNXRUNTIME全部可行的推理,可以自由的通过界面切换!

运行结果如下(请允许我show一下界面):

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/942457
推荐阅读
相关标签
  

闽ICP备14008679号