赞
踩
这个资源库记录了在一些超轻量级网络上推送视频流的过程。一般的步骤是,opencv调用板子(比如树莓派)的摄像头,将检测到的实时视频传输到yolo-fastest、nanodet、ghostnet等超轻量级网络上,然后讲使用flask轻量级框架将处理后的视频帧推送到网络上,基本上可以保证实时性能。并且,这个仓库也记录一些侧端推理框架的性能,感兴趣的网友可以交流。
仓库链接:https://github.com/pengtougu/DNN-Lightweight-Streaming
欢迎Star和PR!
欢迎加qq群交流:696654483
请先安装依赖(for dnn→调用dnn的环境)
请先安装依赖(for ncnn→调用ncnn的环境)
Equipment | Computing backend | System | Framework | input_size | Run time |
---|---|---|---|---|---|
Raspberrypi 3B | 4xCortex-A53 | Linux(arm64) | dnn | 320 | 89ms |
Intel | Core i5-4210 | window10(x64) | dnn | 320 | 21ms |
Equipment | Computing backend | System | Framework | input_size | Run time |
---|---|---|---|---|---|
Raspberrypi 3B | 4xCortex-A53 | Linux(arm64) | dnn | 320 | 315ms |
Intel | Core i5-4210 | window10(x64) | dnn | 320 | 41ms |
Equipment | Computing backend | System | Framework | input_size | Run time |
---|---|---|---|---|---|
Raspberrypi 3B | 4xCortex-A53 | Linux(arm64) | dnn | 320 | 673ms |
Intel | Core i5-4210 | window10(x64) | dnn | 320 | 131ms |
Raspberrypi 3B | 4xCortex-A53 | Linux(arm64) | ncnn | 160 | 716ms |
Intel | Core i5-4210 | window10(x64) | ncnn | 160 | 197ms |
Equipment | Computing backend | System | Framework | input_size | Run time |
---|---|---|---|---|---|
Raspberrypi 3B | 4xCortex-A53 | Linux(arm64) | dnn | 320 | 113ms |
Intel | Core i5-4210 | window10(x64) | dnn | 320 | 23ms |
updating. . .
首先,我已经在window、Mac和Linux环境下测试了这个演示,它在以上三种平台上都能工作,且不需要修改代码,即下即用。
下载后一共包含以下文件(红线为主运行文件):
Run v3_fastest.py
python yolov3_fastest.py --image dog.jpg
python yolov3_fastest.py --video test.mp4
python yolov3_fastest.py --fourcc 0
Run v4_tiny.py
python v4_tiny.py --image person.jpg
python v4_tiny.py --video test.mp4
python v4_tiny.py --fourcc 0
Run v5_dnn.py
python v5_dnn.py --image person.jpg
python v5_dnn.py --video test.mp4
python v5_dnn.py --fourcc 0
Run NanoDet.py
python NanoDet.py --image person.jpg
python NanoDet.py --video test.mp4
python NanoDet.py --fourcc 0
Run app.py -(Push-Streaming online)
python app.py --model v3_fastest
python app.py --model v4_tiny
python app.py --model v5_dnn
python app.py --model NanoDet
⚡ Please note! Be sure to be on the same LAN!
Run v3_fastest.py
Run v4_tiny.py
Run v5_dnn.py
2021-04-26 记:有趣的是,用onnx+dnn的方式调用v5s的模型,推理图片要比摄像头处理帧多花一倍的时间,看了很久,还是找不出问题所在,希望看到的大佬可以帮看看代码,点破问题所在,感谢!
2021-05-01 更:今天找到了问题所在,因为v5_dnn.py文件中有个推理时间画在帧图上的功能(cv2.putText(frame, "TIME: " + str(localtime), (8, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 0), 2)),而这个功能居然花费了每帧推理后处理时间的2/3(大约一帧是50-80ms),后续的版本全部去掉,改成终端显示,每帧推理时间由190ms→130ms,也是恐怖额。
This is a DNN repository that integrates the current detection algorithms. You may ask why call the model with DNN, not just git clone the whole framework down? In fact, when we are working with models, it is more advisable to separate training and inference. More, when you deploy models on a customer’s production line, if you package up the training code and the training-dependent environment for each set of models (yet the customer’s platform only needs you to infer, no training required for you), you will be dead after a few sets of models. As an example, here is the docker for the same version of yolov5 (complete code and dependencies & inference code and dependencies). The entire docker has enough memory to support about four sets of inference dockers.
这是一个整合了当前检测算法的DNN资源库。你可能会问,为什么用DNN调用模型,而不是直接用git克隆整个框架下来?事实上,当我们在处理模型的时候,把训练和推理分开是比较明智的。更多的是,当你在客户的生产线上部署模型的时候,如果你把每套模型的训练代码和依赖训练的环境打包起来(然而客户的平台只需要你推理,不需要你训练),那么你在几套模型之后就凉了呀。作为一个例子,这里是同一版本的yolov5的docker(完整的代码和依赖性→6.06G &推理代码和依赖性→0.4G)。整个docker有足够的内存来支持大约15套推理docker。
欢迎加入深度学习交流群:696654483
里面有很多的研究生大佬和各行各业的大咖~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。