赞
踩
本专栏将从安装到实例运用全方位系列讲解 GitHub YOLOv5 开源代码。
专栏地址:GitHub YOLOv5 开源代码项目系列讲解
目 录
首先在 GitHub 上找到 Yolov 5 v5.0 版本的开源项目源码下载到本地。
YOLOv5 开源代码项目下载地址:https://github.com/ultralytics/yolov5
这是我在本地的下载位置及 PyCharm Tree。
想要运行该项目需要配有正确的环境。
安装环境方面的问题可参考我的另一篇博文:https://blog.csdn.net/IT_charge/article/details/118942281
利用 yolov5 进行预测用到的是开源项目源码中的 detect.py。
我们可对其 main 函数的红框部分进行调整参数。
直接运行即可得到结果,用到的是项目作者提供的训练好的 yolov5s.py 模型进行的预测
原图及路径
目标检测运行结果及保存路径
只需修改图片保存路径参数即可
这是另外收集的 4 张图片
这是检测之后的效果
修改视频保存路径,直接运行会将目标视频按照每一帧进行处理,然后保存。
若想在处理每一帧后及时在窗口显示目标检测结果,可将 '--view-img' 参数添加到 'Edit Configurations' --> ‘Parameters’ 中,即可实时显示啦。
这是处理每一帧的图片,显示了目标识别出的物体及数目等信息。
下图显示为实时播放目标检测画面。
利用 yolov5 进行训练神经网络用到的是开源项目源码中的 train.py。
我们可对其 main 函数的红框部分进行调整参数。
注:强烈建议将
中的 'default=8' 调整为 'default=0' 。
不修改任何参数跑出来的结果是这样的
按照训练好的模型保存路径指示,我们便可很容易地找到它们。
具体细节在 GitHub 项目的这个位置有讲到:https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
简言之,通过 https://www.makesense.ai/ 网站即可在线上轻易完成数据标注工作。
至于训练自己标注好的数据集,将目标下载到源码中指定位置,运行 train.py 即可。当然,这一部分在本专栏接下来的博文中也会详细进行讲解,期待你的关注!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。