当前位置:   article > 正文

python接入rtsp视频,并实时框人员 推送给rtsp流媒体服务器_python 推流服务

python 推流服务

要实现Python显示RTSP视频流、实时框出画面中的人员,并将带有框的视频以RTSP格式推送给流媒体服务器,您需要使用支持RTSP推流的库或工具。由于OpenCV的cv2.VideoWriter并不直接支持RTSP推流,这里推荐使用ffmpeg作为中介,结合ffmpeg-python库来实现这一功能。以下是详细的步骤:

步骤一:获取RTSP视频流并进行人员检测

使用OpenCV读取RTSP视频流并进行人员检测(这里仍以人脸检测为例,您可以替换为其他人员检测模型)。同时,为了将检测结果叠加到原视频流上,我们需要保留原视频帧和检测到的人员框信息:

 

python

  1. import cv2
  2. rtsp_url = 'rtsp://your_rtsp_stream_url'
  3. cap = cv2.VideoCapture(rtsp_url)
  4. if not cap.isOpened():
  5. print("Could not open RTSP stream.")
  6. exit(-1)
  7. face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')
  8. while True:
  9. ret, frame = cap.read()
  10. if not ret:
  11. print("Failed to read frame.")
  12. break
  13. gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
  14. faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30))
  15. # 存储检测到的人员框信息
  16. person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces]
  17. # 在原帧上绘制矩形框
  18. for box in person_boxes:
  19. cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2)
  20. # 显示带有框的帧(可选,仅用于本地调试)
  21. cv2.imshow('RTSP Video Stream with Person Detection', frame)
  22. if cv2.waitKey(1) & 0xFF == ord('q'):
  23. break

步骤二:使用ffmpeg将处理后的视频帧推送到RTSP服务器

安装ffmpegffmpeg-python库:

 

bash

pip install ffmpeg-python

接下来,使用ffmpeg-python库创建一个ffmpeg进程,将处理后的视频帧通过管道(pipe)传递给ffmpeg进行编码和RTSP推流:

 

python

  1. import subprocess as sp
  2. import numpy as np
  3. from ffmpeg import (
  4. Input,
  5. Output,
  6. pipe,
  7. )
  8. # RTSP推流地址
  9. rtsp_output_url = 'rtsp://your_rtmp_server_address/stream_key'
  10. # 创建一个空的Input对象作为输入源,使用管道接收数据
  11. input_pipe = Input(pipe='pipe:', format='rawvideo', pix_fmt='bgr24', s='{}x{}'.format(frame_width, frame_height))
  12. # 创建RTSP输出对象
  13. output = Output(rtsp_output_url, vcodec='libx264', pix_fmt='yuv420p', r=fps)
  14. # 启动ffmpeg进程,连接输入管道和输出RTSP地址
  15. ffmpeg_process = (
  16. input_pipe
  17. .global_args('-hide_banner')
  18. .global_args('-loglevel', 'warning')
  19. .output(output)
  20. .run_async(pipe_stdin=True)
  21. )
  22. while True:
  23. ret, frame = cap.read()
  24. if not ret:
  25. print("Failed to read frame.")
  26. break
  27. gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
  28. faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30))
  29. person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces]
  30. for box in person_boxes:
  31. cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2)
  32. # 将处理后的帧送入ffmpeg进程
  33. ffmpeg_process.stdin.write(frame.tobytes())
  34. # 显示带有框的帧(可选,仅用于本地调试)
  35. cv2.imshow('RTSP Video Stream with Person Detection', frame)
  36. if cv2.waitKey(1) & 0xFF == ord('q'):
  37. break
  38. # 关闭输入管道,结束ffmpeg进程
  39. ffmpeg_process.stdin.close()
  40. ffmpeg_process.wait()

在这个示例中:

  1. 使用ffmpeg-python创建一个空的Input对象,指定格式为rawvideo,像素格式为bgr24,分辨率与原视频一致。
  2. 创建一个Output对象,指定RTSP推流地址、编码器为libx264、像素格式为yuv420p,帧率为原视频帧率。
  3. 启动ffmpeg进程,连接输入管道和输出RTSP地址。
  4. 在主循环中,读取视频帧,进行人员检测,绘制矩形框,然后将处理后的帧以字节形式写入ffmpeg进程的stdin。
  5. 本地调试时可选择显示带有框的帧,按'q'键退出。

请注意,实际使用时需要根据您的流媒体服务器设置调整`rtsp_output ...问答超时,请稍后再试

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/890899
推荐阅读
相关标签
  

闽ICP备14008679号