当前位置:   article > 正文

使用 Python 和 OpenCV 进行实时目标检测的详解_opencv目标检测

opencv目标检测

        使用到的模型文件我已经上传了,但是不知道能否通过审核,无法通过审核的话,就只能 靠大家自己发挥实力了,^_^

目录

简介

代码介绍

代码拆解讲解

1.首先,让我们导入需要用到的库:

2.然后,设置两个阈值:conf_threshold 和 nms_threshold,以及图片的宽度和高度:

3.接下来,我们加载预训练的 YOLOv3 模型,并加载识别的类名:

4.然后,我们创建一个颜色列表,以在最后的目标检测结果中为不同的类别绘制不同的颜色:

5.下一步,我们定义两个函数 fetch_frame 和 process_frame

6.在主循环中,我们使用 ThreadPoolExecutor 实现了并行处理读取帧和模型推理的操作。

7.退出程序

总体代码

效果展示

​编辑

使用GPU说明

如何操作

1.在读取模型时启用 CUDA:

2.其它代码不需要做太多修改:

总结        


简介

        这段程序是一个Python脚本,它使用了OpenCV库和预训练的YOLOv3模型来实现实时视频流的目标检测。它首先从摄像头捕获视频流,并使用线程池处理每一帧图像。在每一帧中,程序都会检测和识别不同的对象,并用不同的颜色显示结果。使用了非极大值抑制技术删除重复的检测框,并利用了并发处理技术以提高性能。最后,他还显示了每秒处理的帧数(FPS)。我们可以通过按'q'键来结束程序。这个程序展示了一种有效的使用深度学习模型进行实时视觉任务的方法。        


代码介绍

        这段代码是使用OpenCV和Python编写的,主要用于实时视频流处理和目标检测。代码的核心是使用训练好的YOLOv3模型来识别和定位视频帧中的对象。下面是对整个流程的详细解释:

  1. 导入库:首先,导入所需的库,包括cv2(OpenCV),numpy(用于科学计算),time(时间管理),以及concurrent.futures(用于并发执行)。

  2. 初始化参数:设置检测参数,包括置信度阈值(用于过滤掉那些置信度低于阈值的检测结果),非极大值抑制(NMS)阈值(用于去除重复的检测框),以及输入图像的宽和高。

  3. 加载模型和类别:通过使用cv2.dnn.readNet加载预训练的YOLOv3模型,并从coco.names文件中加载可以识别的类名列表。

  4. 颜色列表:为每个可识别的类别创建一个随机颜色列表,这用于在检测到的对象周围绘制彩色的边界框。

  5. 视频捕获:打开摄像头进行视频流的捕获。

  6. 多线程处理:初始化ThreadPoolExecutor以并发执行多个任务。这里定义了两个函数fetch_frameprocess_framefetch_frame用于从视频流中获取一帧图像,而process_frame则用于处理图像并执行目标检测。

  7. 目标检测流程

    • 转换输入帧:将输入帧转换为模型所需要的格式(blob),包括缩放、颜色空间转换等。
    • 执行检测:调用神经网络模型执行前向传播,获取检测结果。
    • 过滤结果:根据置信度阈值和NMS阈值过滤掉一部分检测结果,消除低置信度以及重复的检测框。
    • 绘制边界框和类别标签:在原图上绘制检测到的对象的边界框,并显示类别名称和置信度。
  8. 显示结果:在屏幕上实时显示处理后的视频帧,并计算显示FPS(每秒帧数)。

  9. 程序退出:等待我们按q键退出,并在退出前释放资源,包括摄像头和窗口。

        这段代码的设计利用了异步处理技术(通过ThreadPoolExecutor)来提高处理视频流的效率,使得帧的捕获和处理能够并行执行,从而尽可能提高FPS。

        为什么这样做,主要是我的电脑没有独立GPU,所以,呃,只能动点这中方法了,但是说实话并没有什么实质性的提升,难受了。


代码拆解讲解

        我们将使用预训练的 YOLOv3 模型进行目标检测,并使用 Python 的 concurrent.futures 库来并行处理视频帧的读取和模型推理,以优化程序的执行速度。

        感谢YOLO,虽然现在已经发展到v8了,但是我们这里使用v3还是足够了。

1.首先,让我们导入需要用到的库:

  1. import cv2
  2. import numpy as np
  3. import time
  4. from concurrent.futures import ThreadPoolExecutor

2.然后,设置两个阈值:conf_threshold 和 nms_threshold,以及图片的宽度和高度:

  1. conf_threshold = 0.5
  2. nms_threshold = 0.4
  3. Width = 416
  4. Height = 416
'
运行

3.接下来,我们加载预训练的 YOLOv3 模型,并加载识别的类名:

  1. net = cv2.dnn.readNet('../needFiles/yolov3.weights', '../needFiles/yolov3.cfg')
  2. with open('../needFiles/coco.names', 'r') as f:
  3. classes = f.read().strip().split('\n')

4.然后,我们创建一个颜色列表,以在最后的目标检测结果中为不同的类别绘制不同的颜色:

color_list = np.random.uniform(0, 255, size=(len(classes), 3))

5.下一步,我们定义两个函数 fetch_frame 和 process_frame

        fetch_frame 用于从视频对象读取一帧;而 process_frame 则将读取到的帧输入到 YOLOv3 模型中,然后处理获得的输出结果,并在帧上绘制物体检测结果:

  1. def fetch_frame(cap):
  2. ...
  3. def process_frame(frame):
  4. ...
'
运行

6.在主循环中,我们使用 ThreadPoolExecutor 实现了并行处理读取帧和模型推理的操作。

        这样可以使读取下一帧的操作和模型推理操作同时进行,从而显著地加快了处理速度:

  1. executor = ThreadPoolExecutor(max_workers=2)
  2. frame_future = executor.submit(fetch_frame, cap)
  3. while True:
  4. ...
  5. ret, frame, height, width, channels = frame_future.result()
  6. frame_future = executor.submit(fetch_frame, cap)
  7. processed_frame = executor.submit(process_frame, frame).result()
  8. ...

7.退出程序

        在这段代码的最后,如果你按下 q 键退出主循环,视频读取对象将会被释放,所有的窗口也将被销毁:

  1. if cv2.waitKey(1) & 0xFF == ord('q'):
  2. break
  3. ...
  4. cap.release()
  5. cv2.destroyAllWindows()

总体代码

  1. # 导入必要的库
  2. import cv2
  3. import numpy as np
  4. import time
  5. from concurrent.futures import ThreadPoolExecutor
  6. # 设置置信度阈值和非极大值抑制(NMS)阈值
  7. conf_threshold = 0.5
  8. nms_threshold = 0.4
  9. Width = 416
  10. Height = 416
  11. # 加载预训练的 YOLOv3 模型
  12. net = cv2.dnn.readNet('../needFiles/yolov3.weights', '../needFiles/yolov3.cfg')
  13. # 加载可识别的类名
  14. with open('../needFiles/coco.names', 'r') as f:
  15. classes = f.read().strip().split('\n')
  16. # 为不同的类别创建一个颜色列表
  17. color_list = np.random.uniform(0, 255, size=(len(classes), 3))
  18. # 打开摄像头进行视频帧的捕获
  19. cap = cv2.VideoCapture(0)
  20. # 初始化一个ThreadPoolExecutor用于多线程处理
  21. executor = ThreadPoolExecutor(max_workers=2)
  22. # 定义fetch_frame函数,从视频流中获取视频帧
  23. def fetch_frame(cap):
  24. ret, frame = cap.read() # 读取一帧图像
  25. height, width, channels = frame.shape # 获取图像的尺寸和通道信息
  26. return ret, frame, height, width, channels
  27. # 定义process_frame函数,处理每帧图像并进行目标检测
  28. def process_frame(frame):
  29. # 将帧转换为模型的输入格式
  30. blob = cv2.dnn.blobFromImage(frame, 1 / 255.0, (416, 416), swapRB=True, crop=False)
  31. net.setInput(blob)
  32. output_layers = net.getUnconnectedOutLayersNames() # 获取输出层的名字
  33. layer_outputs = net.forward(output_layers) # 进行前向传播,获取检测结果
  34. boxes = [] # 用于存储检测到的边界框
  35. confidences = [] # 用于存储边界框的置信度
  36. class_ids = [] # 用于存储边界框的类别ID
  37. # 循环每个输出层的检测结果
  38. for output in layer_outputs:
  39. for detection in output:
  40. scores = detection[5:] # 获取类别的得分
  41. class_id = np.argmax(scores) # 获取得分最高的类别ID
  42. confidence = scores[class_id] # 获取得分最高的置信度
  43. # 过滤低置信度的检测结果
  44. if confidence > conf_threshold:
  45. center_x = int(detection[0] * width)
  46. center_y = int(detection[1] * height)
  47. w = int(detection[2] * width)
  48. h = int(detection[3] * height)
  49. # 计算边界框的位置和尺寸
  50. x = int(center_x - w / 2)
  51. y = int(center_y - h / 2)
  52. # 将边界框的位置、尺寸、置信度和类别ID添加到列表中
  53. boxes.append([x, y, w, h])
  54. confidences.append(float(confidence))
  55. class_ids.append(class_id)
  56. # 使用非极大值抑制去除重叠的边界框
  57. indices = cv2.dnn.NMSBoxes(boxes, confidences, conf_threshold, nms_threshold)
  58. # 在原图上绘制边界框和类别标签
  59. for i in indices.flatten():
  60. box = boxes[i]
  61. x = box[0]
  62. y = box[1]
  63. w = box[2]
  64. h = box[3]
  65. label = str(classes[class_ids[i]])
  66. color = color_list[class_ids[i]]
  67. cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
  68. cv2.putText(frame, label, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
  69. return frame
  70. # 在进入循环前,先读取一帧以开始异步处理
  71. frame_future = executor.submit(fetch_frame, cap)
  72. # 主循环
  73. while True:
  74. start = time.time() # 记录开始处理的时间点
  75. # 获取当前帧和相应信息
  76. ret, frame, height, width, channels = frame_future.result()
  77. # 异步读取下一帧
  78. frame_future = executor.submit(fetch_frame, cap)
  79. # 如果当前帧读取成功,则继续处理
  80. if ret:
  81. # 使用线程池异步处理当前帧
  82. processed_frame = executor.submit(process_frame, frame).result()
  83. # 计算FPS
  84. end = time.time()
  85. fps = 1 / (end - start)
  86. # 在处理好的帧上显示FPS
  87. cv2.putText(processed_frame, "FPS: " + str(round(fps, 2)), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.6, (0, 255, 0),
  88. 2)
  89. # 显示处理好的帧
  90. cv2.imshow('frame', processed_frame)
  91. # 如果我们按下 ‘q’ 键,退出循环
  92. if cv2.waitKey(1) & 0xFF == ord('q'):
  93. break
  94. else:
  95. break # 如果帧没有被成功读取,退出循环
  96. # 释放视频捕获对象和销毁所有OpenCV窗口
  97. cap.release()
  98. cv2.destroyAllWindows()

效果展示

        这个效果还是不错的哈,就是这个硬件性能跟不上,要是有独显就好了。 


使用GPU说明

        当然了,为了在大学时期狠狠的奖励自己四年游戏,很多同学应该都是购买的游戏本,那么恭喜你,你的硬件非常的完美,那么这里你可以看一下。

如何操作

        如果你想利用 GPU 加速你的目标检测代码,主要更改会集中在如何让 OpenCV 利用你的 GPU。不幸的是,OpenCV 的 dnn 模块默认使用 CPU 进行计算。想要使用 GPU,首要条件是你需要有一个支持 CUDA 的 NVIDIA GPU。

        从 OpenCV 4.2 版本开始,dnn 模块添加了对 CUDA 的支持,但实现这一点需要确保你的 OpenCV 是用 CUDA 支持构建的。如果你自己编译 OpenCV,确保在编译时启用了 CUDA 支持。

以下是如何更改你的代码以利用 CUDA 的基本步骤:

1.在读取模型时启用 CUDA:

替换代码中的 readNet 调用,使用 readNetFromDarknet 并添加代码来设置网络的首选后端和目标为 CUDA。

  1. # 加载预训练的 YOLOv3 模型
  2. net = cv2.dnn.readNetFromDarknet('../needFiles/yolov3.cfg', '../needFiles/yolov3.weights')
  3. # 启用 CUDA
  4. net.setPreferableBackend(cv2.dnn.DNN_BACKEND_CUDA)
  5. net.setPreferableTarget(cv2.dnn.DNN_TARGET_CUDA)
2.其它代码不需要做太多修改:

        使用CUDA优化后,主要是模型推理过程(即net.forward()的调用)会更快。数据准备和后处理(例如非极大值抑制)的代码不需要太多修改,因为它们仍然在 CPU 上执行。

        这些改动仅在你已有 OpenCV 版本支持 CUDA,并且你的系统拥有合适的 NVIDIA GPU 时有效。如果你的环境满足这些条件,这样的更改可以显著加快模型推理的速度,尤其是在进行视频流处理时。

        最后,你一定要确定你的环境(包括 NVIDIA 驱动程序和 CUDA Toolkit)被正确设置以支持 GPU 加速。如果你对如何编译支持 CUDA 的 OpenCV 或如何配置你的系统环境有任何疑问,我建议查阅 OpenCV 官方文档和 NVIDIA 的 CUDA 安装指导,因为我真的没有仔细研究过。

总结        

        希望这篇博客对你有所帮助。最后我想说,虽然NVIDIA对我们的学习有帮助,但是我还是想说。

AMDyes!!!

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号