当前位置:   article > 正文

YOLOv5进行目标检测的“落地化“应用:安全帽佩戴检测_yolo5检测军装

yolo5检测军装

YOLOv5进行目标检测的"落地化"应用:安全帽佩戴检测

该项目使用了YOLOv5s、YOLOv5m、YOLOv5l来训练安全帽佩戴检测数据集,代码和权重均已开源!安全帽佩戴检测数据集也是开源的(共含7581 张图像)!

该项目是使用 YOLOv5 来训练在智能工地安全领域中头盔目标检测的应用

 


1.YOLO v5训练自己数据集教程

使用的数据集:Safety-Helmet-Wearing-Dataset

环境准备

首先确保自己的环境:

  1. Python >= 3.7
  2. Pytorch == 1.5.x

训练自己的数据

提示:

关于增加数据集分类的方法,请看【5. 增加数据集的分类】

1.1 创建自己的数据集配置文件

因为我这里只是判断 【人没有带安全帽】、【人有带安全帽】、【人体】 3个类别 ,基于 data/coco128.yaml 文件,创建自己的数据集配置文件 custom_data.yaml

  1. # 训练集和验证集的 labels 和 image 文件的位置
  2. train: ./score/images/train
  3. val: ./score/images/val
  4. number of classes
  5. nc: 3
  6. class names
  7. names: ['person''head''helmet']

1.2 创建每个图片对应的标签文件

使用标注工具类似于 Labelbox 、CVAT 、精灵标注助手 标注之后,需要生成每个图片对应的 .txt 文件,其规范如下:

  • 每一行都是一个目标

  • 类别序号是零索引开始的(从0开始)

  • 每一行的坐标 class x_center y_center width height 格式

  • 框坐标必须采用归一化的 xywh格式(从0到1)。如果您的框以像素为单位,则将x_centerwidth除以图像宽度,将y_centerheight除以图像高度。代码如下:

  1. import numpy as np
  2. def convert(size, box):
  3.     """
  4.     将标注的 xml 文件生成的【左上角x,左上角y,右下角x,右下角y】标注转换为yolov5训练的坐标
  5.     :param size: 图片的尺寸: [w,h]
  6.     :param box: anchor box 的坐标 [左上角x,左上角y,右下角x,右下角y,]
  7.     :return: 转换后的 [x,y,w,h]
  8.     """
  9.     x1 = int(box[0])
  10.     y1 = int(box[1])
  11.     x2 = int(box[2])
  12.     y2 = int(box[3])
  13.     dw = np.float32(1/ int(size[0]))
  14.     dh = np.float32(1/ int(size[1]))
  15.     w = x2 - x1
  16.     h = y2 - y1
  17.     x = x1 + (w / 2)
  18.     y = y1 + (h / 2)
  19.     x = x * dw
  20.     w = w * dw
  21.     y = y * dh
  22.     h = h * dh
  23.     return [x, y, w, h]

生成的 .txt 文件放置的名字是图片的名字,放置在 label 文件夹中,例如:

  1. ./score/images/train/00001.jpg # image
  2. ./score/labels/train/00001.txt # label

生成的 .txt 例子:

  1. 1 0.1830000086920336 0.1396396430209279 0.13400000636465847 0.15915916301310062
  2. 1 0.5240000248886645 0.29129129834473133 0.0800000037997961 0.16816817224025726
  3. 1 0.6060000287834555 0.29579580295830965 0.08400000398978591 0.1771771814674139
  4. 1 0.6760000321082771 0.25375375989824533 0.10000000474974513 0.21321321837604046
  5. 0 0.39300001866649836 0.2552552614361048 0.17800000845454633 0.2822822891175747
  6. 0 0.7200000341981649 0.5570570705458522 0.25200001196935773 0.4294294398277998
  7. 0 0.7720000366680324 0.2567567629739642 0.1520000072196126 0.23123123683035374

1.3 文件放置规范

文件树如下

1.4 聚类得出先验框(可选)

使用代码 ./data/gen_anchors/clauculate_anchors.py ,修改数据集的路径

  1. FILE_ROOT = r"xxx" # 根路径
  2. ANNOTATION_ROOT = r"xxx"  # 数据集标签文件夹路径
  3. ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOT

跑完会生成一个文件 anchors.txt,里面有得出的建议先验框:

  1. Best Accuracy = 79.72%
  2. Best Anchors = [[14.74, 27.64], [23.48, 46.04], [28.88, 130.0], [39.33, 148.07], [52.62, 186.18], [62.33, 279.11], [85.19, 237.87], [88.0, 360.89], [145.33, 514.67]]

1.5 选择一个你需要的模型

在文件夹 ./models 下选择一个你需要的模型然后复制一份出来,将文件开头的 nc = 修改为数据集的分类数,下面是借鉴 ./models/yolov5s.yaml来修改的

  1. # parameters
  2. nc: 3  # number of classes     <============ 修改这里为数据集的分类数
  3. depth_multiple: 0.33  # model depth multiple
  4. width_multiple: 0.50  # layer channel multiple
  5. # anchors
  6. anchors: # <============ 根据 ./data/gen_anchors/anchors.txt 中的 Best Anchors 修改,需要取整(可选)
  7.   - [14,2723,4628,130
  8.   - [39,14852,18662.,279
  9.   - [85,23788,360145,514]
  10. # YOLOv5 backbone
  11. backbone:
  12.   # [fromnumber, module, args]
  13.   [[-11, Focus, [643]],  # 0-P1/2
  14.    [-11, Conv, [12832]],  # 1-P2/4
  15.    [-13, BottleneckCSP, [128]],
  16.    [-11, Conv, [25632]],  # 3-P3/8
  17.    [-19, BottleneckCSP, [256]],
  18.    [-11, Conv, [51232]],  # 5-P4/16
  19.    [-19, BottleneckCSP, [512]],
  20.    [-11, Conv, [102432]],  # 7-P5/32
  21.    [-11, SPP, [1024, [5913]]],
  22.    [-13, BottleneckCSP, [1024False]],  # 9
  23.   ]
  24. # YOLOv5 head
  25. head:
  26.   [[-11, Conv, [51211]],
  27.    [-11, nn.Upsample, [None, 2'nearest']],
  28.    [[-16], 1, Concat, [1]],  # cat backbone P4
  29.    [-13, BottleneckCSP, [512False]],  # 13
  30.    [-11, Conv, [25611]],
  31.    [-11, nn.Upsample, [None, 2'nearest']],
  32.    [[-14], 1, Concat, [1]],  # cat backbone P3
  33.    [-13, BottleneckCSP, [256False]],  # 17
  34.    [-11, Conv, [25632]],
  35.    [[-114], 1, Concat, [1]],  # cat head P4
  36.    [-13, BottleneckCSP, [512False]],  # 20
  37.    [-11, Conv, [51232]],
  38.    [[-110], 1, Concat, [1]],  # cat head P5
  39.    [-13, BottleneckCSP, [1024False]],  # 23
  40.    [[172023], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  41.   ]

1.6 开始训练

这里选择了 yolov5s 模型进行训练,权重也是基于 yolov5s.pt 来训练

python train.py --img 640 --batch 16 --epochs 10 --data ./data/custom_data.yaml --cfg ./models/custom_yolov5.yaml --weights ./weights/yolov5s.pt

其中,yolov5s.pt 需要自行下载放在本工程的根目录即可,下载地址 官方权重

1.7 看训练之后的结果

训练之后,权重会保存在 ./runs 文件夹里面的每个 exp 文件里面的 weights/best.py ,里面还可以看到训练的效果

2. 侦测

侦测图片会保存在 ./inferenct/output/ 文件夹下

运行命令:

  1. python detect.py --source   0  # webcam
  2.                             file.jpg  # image 
  3.                             file.mp4  # video
  4.                             path/  # directory
  5.                             path/*.jpg  # glob
  6.                             rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa  # rtsp stream
  7.                             http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8  # http stream

3. 检测危险区域内是否有人

3.1 危险区域标注方式

我这里使用的是 精灵标注助手 标注,生成了对应图片的 json 文件

3.2 执行侦测

侦测图片会保存在 ./inferenct/output/ 文件夹下

运行命令:

python area_detect.py --source ./area_dangerous --weights ./weights/helmet_head_person_s.pt

3.3 效果:在危险区域里面的人体会被 红色框 选出来

4. 生成 ONNX

4.1 安装 onnx 库

pip install onnx

4.2 执行生成

python ./models/export.py --weights ./weights/helmet_head_person_s.pt --img 640 --batch 1

onnx 和 torchscript 文件会生成在 ./weights 文件夹中

5. 增加数据集的分类

关于增加数据集分类的方法:

SHWD 数据集里面没有 person 的类别,先将现有的自己的数据集执行脚本生成 yolov5 需要的标签文件 .txt,之后再用 yolov5x.pt 加上 yolov5x.yaml ,使用指令检测出人体

python detect.py --save-txt --source ./自己数据集的文件目录 --weights ./weights/yolov5x.pt

yolov5 会推理出所有的分类,并在 inference/output 中生成对应图片的 .txt 标签文件;

修改 ./data/gen_data/merge_data.py 中的自己数据集标签所在的路径,执行这个python脚本,会进行 person 类型的合并

项目链接:

https://github.com/PeterH0323/Smart_Construction

数据集链接:

https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号