赞
踩
VisDrone2019是常用的无人机视觉目标检测的数据集。
建议提前下载目标检测需要的标签字体。
下载地址:https://ultralytics.com/assets/Arial.ttf
保存地址通常为配置文件常用的地址:/home/tom/.config/Ultralytics/Arial.ttf
用如下命令来复制项目的源码:
- git clone https://github.com/ultralytics/yolov5 # clone
- cd yolov5
- pip install -r requirements.txt # install
VisDrone数据集中包含解释图像中目标对象的annotations文件。但是,在进行模型的训练、测试和推理时,需要将annotations文件转换成适合目标检测的labels文件,即标签文件。文件的格式是txt文件,规格为:
(1)每个对象排成一行;
(2)每一行是 class x_center y_center width height
格式;
(3)图像坐标必须处理成归一化 xywh 格式(从 0 到 1);
(4)类的标签以 0 为索引(从 0 开始)。
图像和它对应的标签文件分别如下图所示:
上述图像对应的标签文件包含 2 个人(类别 0
)和领带(类别 27
):
生成标签文件的源代码在数据集配置文件(data/VisDrone.yaml)中。
进入到yolov5/models/ 目录下,拷贝一个模型作为自己的模型,以yolov5s为例:
cp yolov5s.yaml yolov5s_visdrone.yaml
然后修改类别的数量,这里共有10个分类,把nc的参数改为10:
输入如下命令开始训练:
python train.py --data VisDrone.yaml --epochs 100 --weights '' --cfg yolov5s_visdrone.yaml --batch-size 16
经过2个多小时的训练,训练结果如下:
此处的数据并未经过切割、融合等处理,经过上述处理后,精度应该更高。
用detect.py文件来对图像进行推理:
python detect.py --weights #pt file after training --source #path to the image
原图和推理生成的图像如下所示:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。