赞
踩
先说下实现原理,如下图:
001.png
Python使用cv2拉取摄像头的视频帧,压缩、解码、编码等处理后将图片base64编码后通过websocket发送给服务端,服务端将此帧图片存下来,当有客户端请求图片数据时服务端不断地将图片帧发送给请求websocket客户端。客户端不断的刷新图片以达到视频播放的效果。
可以根据代码中quality参数设置图片的质量4流畅3高清2标清1超清,本人测试在1M带宽的网络环境可以达到1秒10帧、延迟低的效果只是画面效果不好。标清则需要大约5M带宽,高清大概需要10M带宽,超清需要20M带宽。
Python端代码如下:
#向服务端发送数据的线程
import cv2
import base64
import websocket
import threading
class SendThread (threading.Thread):
def __init__(self, video_url, ws_server_url, camera_id):
threading.Thread.__init__(self)
#"rtsp://admin:a1234567@192.168.8.11:554/h264/ch1/main/av_stream"
self._video_url = video_url
self._ws = None
self._ws_server_url = ws_server_url
self._captu
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。