当前位置:   article > 正文

2022.07.25 C++下使用opencv部署yolov7模型(五)_yolov7 shezhi nmsthreshold

yolov7 shezhi nmsthreshold

0.写在最前

此篇文字针对yolov7-1.0版本。

最近粗略的看了一遍yolov7的论文,关于yolov7和其他yolo系列的对比,咱就不多说了,大佬们的文章很多很详细。关于opencv部署方面,其实yolov7和yolov5的初期版本(5.0以前的版本)很像,分为三个输出口,yolov5-6.0之后的版本合并了三个输出口变成一个output输出【需要注意的是,虽然yolov可以在export的时候加上--grid参数将detect层加入之后变成和yolov5最新版本的输出一致(可以不用改yolov5代码直接跑yolov7的那种一致,当然,anchors数据还是得改的),但是我试过了,opencv包括onnxruntime推理加grid参数的onnx模型都有问题,暂时我也在探索一种适用于所有yolov7版本的修改方案,但是改了几种都是适用某几个模型,其他模型挂掉的情况】。使用Netron打开两个模型对比下很明显,数据格式也和yolo的一致。所以基本上可以和yolov5的代码通用。只不过具体使用的时候还是有一点区别的。另外,yolov7目前可以直接通过其自身带的export.py导出onnx模型,并不需要像yolov5早期的代码修改。

一.yolov5代码修改适用yolov7

1.归一化框的读取类似yolov5的早期版本

上面说过,yolov7和yolov5的不同,实际上应该是一致的才对(实际上,如果yolov7导出的时候加上--grid参数,结果就和yolov5目前的版本一毛一样,但是加上之后opencv推理onnx的时候会报错,目前yolov7暂时未修复该bug,所以下面的yolov7代码导出的时候不要加--grid参数)。我没仔细debug,所以我们需要根据下面的红色框中的内容对网络的归一化anchors框进行变换变成正常的像素位置。也就是像yolov5之前古老的版本没优化之前一样(这就是我上面说的和yolov5-5.0以前的版本类似的原因)。可以看第三篇的代码中的读取归一化框的方式获取原始图像位置。2021.09.02更新说明 c++下使用opencv部署yolov5模型 (三)_爱晚乏客游的博客-CSDN博客_c++ yolov5

2.anchors数据不同

 对比下两者的anchors数据,可以看到两个的anchors不一致了,修改这部分内容即可。

所以综上所诉,对于yolov5-6.0的代码,修改一些地方即可马上应用到yolov7上面,可以说很方便了。

具体修改有两处,一处是anchors,另外一处是推理程序,修改之后的链接我放最下面了,其实就是在第四篇的基础上面修改下:GitHub - UNeedCryDear/yolov5-opencv-dnn-cpp: 使用opencv模块部署yolov5-6.0版本 

  1. //yolo.h中改下anchors
  2. const float netAnchors[3][6] = { {12, 16, 19, 36, 40, 28},{36, 75, 76, 55, 72, 146},{142, 110, 192, 243, 459, 401} }; //yolov7-P5 anchors
  3. //yolo.cpp中推理代码修改
  4. bool Yolo::Detect(Mat& SrcImg, Net& net, vector<Output>& output) {
  5. Mat blob;
  6. int col = SrcImg.cols;
  7. int row = SrcImg.rows;
  8. int maxLen = MAX(col, row);
  9. Mat netInputImg = SrcImg.clone();
  10. if (maxLen > 1.2 * col || maxLen > 1.2 * row) {
  11. Mat resizeImg = Mat::zeros(maxLen, maxLen, CV_8UC3);
  12. SrcImg.copyTo(resizeImg(Rect(0, 0, col, row)));
  13. netInputImg = resizeImg;
  14. }
  15. vector<Ptr<Layer> > layer;
  16. vector<string> layer_names;
  17. layer_names= net.getLayerNames();
  18. blobFromImage(netInputImg, blob, 1 / 255.0, cv::Size(netWidth, netHeight), cv::Scalar(0, 0, 0), true, false);
  19. //如果在其他设置没有问题的情况下但是结果偏差很大,可以尝试下用下面两句语句
  20. //blobFromImage(netInputImg, blob, 1 / 255.0, cv::Size(netWidth, netHeight), cv::Scalar(104, 117, 123), true, false);
  21. //blobFromImage(netInputImg, blob, 1 / 255.0, cv::Size(netWidth, netHeight), cv::Scalar(114, 114,114), true, false);
  22. net.setInput(blob);
  23. std::vector<cv::Mat> netOutputImg;
  24. net.forward(netOutputImg, net.getUnconnectedOutLayersNames());
  25. std::vector<int> classIds;//结果id数组
  26. std::vector<float> confidences;//结果每个id对应置信度数组
  27. std::vector<cv::Rect> boxes;//每个id矩形框
  28. float ratio_h = (float)netInputImg.rows / netHeight;
  29. float ratio_w = (float)netInputImg.cols / netWidth;
  30. int net_width = className.size() + 5; //输出的网络宽度是类别数+5
  31. for (int stride = 0; stride < strideSize; stride++) { //stride
  32. float* pdata = (float*)netOutputImg[stride].data;
  33. int grid_x = (int)(netWidth / netStride[stride]);
  34. int grid_y = (int)(netHeight / netStride[stride]);
  35. for (int anchor = 0; anchor < 3; anchor++) { //anchors
  36. const float anchor_w = netAnchors[stride][anchor * 2];
  37. const float anchor_h = netAnchors[stride][anchor * 2 + 1];
  38. for (int i = 0; i < grid_y; i++) {
  39. for (int j = 0; j < grid_x; j++) {
  40. float box_score = sigmoid_x(pdata[4]); ;//获取每一行的box框中含有某个物体的概率
  41. if (box_score >= boxThreshold) {
  42. cv::Mat scores(1, className.size(), CV_32FC1, pdata + 5);
  43. Point classIdPoint;
  44. double max_class_socre;
  45. minMaxLoc(scores, 0, &max_class_socre, 0, &classIdPoint);
  46. max_class_socre = sigmoid_x(max_class_socre);
  47. if (max_class_socre >= classThreshold) {
  48. float x = (sigmoid_x(pdata[0]) * 2.f - 0.5f + j) * netStride[stride]; //x
  49. float y = (sigmoid_x(pdata[1]) * 2.f - 0.5f + i) * netStride[stride]; //y
  50. float w = powf(sigmoid_x(pdata[2]) * 2.f, 2.f) * anchor_w; //w
  51. float h = powf(sigmoid_x(pdata[3]) * 2.f, 2.f) * anchor_h; //h
  52. int left = (int)(x - 0.5 * w) * ratio_w + 0.5;
  53. int top = (int)(y - 0.5 * h) * ratio_h + 0.5;
  54. classIds.push_back(classIdPoint.x);
  55. confidences.push_back(max_class_socre * box_score);
  56. boxes.push_back(Rect(left, top, int(w * ratio_w), int(h * ratio_h)));
  57. }
  58. }
  59. pdata += net_width;//下一行
  60. }
  61. }
  62. }
  63. }
  64. //执行非最大抑制以消除具有较低置信度的冗余重叠框(NMS)
  65. vector<int> nms_result;
  66. NMSBoxes(boxes, confidences, nmsScoreThreshold, nmsThreshold, nms_result);
  67. for (int i = 0; i < nms_result.size(); i++) {
  68. int idx = nms_result[i];
  69. Output result;
  70. result.id = classIds[idx];
  71. result.confidence = confidences[idx];
  72. result.box = boxes[idx];
  73. output.push_back(result);
  74. }
  75. if (output.size())
  76. return true;
  77. else
  78. return false;
  79. }

二、yolov7一些模型转换的问题

评论区有些小伙伴反馈yolov7-d6模型在opencv4.5.1下面会报错,报错信息类似之前读取早期的yolov5的报错一致。

OpenCV(4.5.0) Error: Unspecified error (> Node [Slice]:(341) parse error: OpenCV(4.5.0) D:\opencv\ocv4.5.0\sources\modules\dnn\src\onnx\onnx_importer.cpp:697: error: (-2:Unspecified error) in function 'void __cdecl cv::dnn::dnn4_v20200908::ONNXImporter::handleNode(const class opencv_onnx::NodeProto &)' Slice layer only supports steps = 1 (expected: 'countNonZero(step_blob != 1) == 0'), where 'countNonZero(step_blob != 1)' is 1 must be equal to '0' is 0 in cv::dnn::dnn4_v20200908::ONNXImporter::handleNode, file D:\opencv\ocv4.5.0\sources\modules\dnn\src\onnx\onnx_importer.cpp, line 1797

经过对比yolov7和yolov7-d6的yaml文件,发现是由于yolov7-d6中使用了ReOrg模块引起的报错,也就是步长为2的切片,像我这个系列中第一篇的问题一样。

这个模块有点类似早期的yolov5的Facos模块,需要将ReOrg模块修改成下面的代码。 在models/common.py里面搜索下ReOrg,改成一下代码之后重新导出onnx模型即可正确读取。

  1. class ReOrg(nn.Module):
  2. def __init__(self):
  3. super(ReOrg, self).__init__()
  4. def forward(self, x): # x(b,c,w,h) -> y(b,4c,w/2,h/2)
  5. #origin code
  6. # return torch.cat([x[..., ::2, ::2], x[..., 1::2, ::2], x[..., ::2, 1::2], x[..., 1::2, 1::2]], 1)
  7. self.concat=Contract(gain=2)
  8. return self.concat(x)

最后贴个yolov7和yolov5的对比图,可以看到yolov7提升还是蛮明显的,结果的置信度高了一些,后面的自行车也检测出来了,就是领带这里误检了。 

 

贴合github链接,里面包括了yolov7和yolov5,通过宏定义来控制:

GitHub - UNeedCryDear/yolov7-opencv-dnn-cpp

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/295608
推荐阅读
相关标签
  

闽ICP备14008679号