赞
踩
本教程所用环境:代码版本V6.1,源码下载地址:https://github.com/ultralytics/yolov5.git
Pytorch:1.10
Cuda:11.1
Python:3.7
官方要求Python>=3.7 and PyTorch>=1.7.
通过 git clone https://github.com/ultralytics/yolov5.git
将YOLOv5源码下载到本地,创建好虚拟环境,并通过pip install -r requirements.txt
安装依赖包。
创建数据集文件夹 /app/yyq/dataset/fourth_project/yolov5_dataset/(名字可以自定义),目录结构如下,将之前labelImg标注好的xml文件和图片放到对应目录下
…images # 存放图片
…Annotations # 存放图片对应的xml文件
…ImageSets/Main #之后会在Main文件夹内自动生成train.txt,val.txt,test.txt和trainval.txt四个文件,存放训练集、验证集、测试集图片的名字(无后缀 .jpg
)
示例如下:
/app/yyq/dataset/fourth_project/yolov5_dataset 文件夹下内容如下:
Annotations文件夹下面为xml文件(标注工具采用labelImage),内容如下:
images为VOC数据集格式中的JPEGImages,内容如下:
ImageSets文件夹下面有个Main子文件夹,其下面存放训练集、验证集、测试集的划分,通过脚本生成,可以创建一个split_train_val.py文件,代码内容如下:
import os import random """ 对图片数据集进行随机分类 以8: 1: 1的比例分为训练数据集,验证数据集和测试数据集 运行后在ImageSets文件夹中会出现四个文件 """ ROOT = "/app/yyq/dataset/fourth_project/yolov5_dataset/" trainval_percent = 0.9 train_percent = 0.9 xmlfilepath = ROOT + "Annotations" txtsavepath = ROOT + "ImageSets" if not os.path.exists(txtsavepath): os.makedirs(txtsavepath) # 获取该路径下所有文件的名称,存放在list中 total_xml = os.listdir(xmlfilepath) num = len(total_xml) list = range(num) tv = int(num * trainval_percent) tr = int(tv * train_percent) trainval = random.sample(list, tv) train = random.sample(trainval, tr) ftrainval = open(ROOT + "ImageSets/trainval.txt", "w") ftest = open(ROOT + "ImageSets/test.txt", "w") ftrain = open(ROOT + "ImageSets/train.txt", "w") fval = open(ROOT + "ImageSets/val.txt", "w") for i in list: # 获取文件名称中.xml之前的序号 name = total_xml[i][:-4] + "\n" if i in trainval: ftrainval.write(name) if i in train: ftrain.write(name) else: fval.write(name) else: ftest.write(name) ftrainval.close() ftrain.close() fval.close() ftest.close()
运行代码后,在Main文件夹下生成下面四个txt文档:
接下来准备labels,把数据集格式转换成yolo_txt格式,即将每个xml标注提取bbox信息为txt格式(这种数据集格式成为yolo_txt格式),每个图像对应一个txt文件,文件每一行为一个目标的信息,包括class, x_center, y_center, width, height格式。格式如下:
参考如下(https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data#2-create-labels):
创建 voc_label.py 文件,将训练集、验证集、测试集生成label标签(训练中要用到),同时将数据集路径导入txt文件中,代码内容如下:
import xml.etree.ElementTree as ET # xml解析包 import os sets = ["train", "test", "val"] classes = ["a", "b", "c", "d"] # 进行归一化操作 def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax) dw = 1. / size[0] # 1/w dh = 1. / size[1] # 1/h x = (box[0] + box[1]) / 2.0 # 物体在图中的中心点x坐标 y = (box[2] + box[3]) / 2.0 # 物体在图中的中心点y坐标 w = box[1] - box[0] # 物体实际像素宽度 h = box[3] - box[2] # 物体实际像素高度 x = x * dw # 物体中心点x的坐标比(相当于 x/原图w) w = w * dw # 物体宽度的宽度比(相当于 w/原图w) y = y * dh # 物体中心点y的坐标比(相当于 y/原图h) h = h * dh # 物体宽度的宽度比(相当于 h/原图h) return (x, y, w, h) # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1] # year ="2012", 对应图片的id(文件名) def convert_annotation(root, image_id): """ 将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长宽大小等信息, 通过对其解析,然后进行归一化最终读到label文件中去,也就是说 一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去 labal文件中的格式: calss x y w h,同时,一张图片对应的类别有多个,所以对应的buinding的信息也有多个 """ # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件 in_file = open(root + "Annotations/%s.xml" % (image_id), encoding="utf-8") # 准备在对应的image_id 中写入对应的label,分别为 # <object-class> <x> <y> <width> <height> out_file = open(root + "labels/%s.txt" % (image_id), "w", encoding="utf-8") # 解析xml文件 tree = ET.parse(in_file) # 获得对应的键值对 root = tree.getroot() # 获得图片的尺寸大小 size = root.find("size") # 如果xml内的标记为空,增加判断条件 if size != None: # 获得宽 w = int(size.find("width").text) # 获得高 h = int(size.find("height").text) # 遍历目标obj for obj in root.iter("object"): # 获得difficult if obj.find("difficult"): difficult = int(obj.find("difficult").text) else: difficult = 0 # 获得类别 =string 类型 cls = obj.find("name").text # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过 if cls not in classes or int(difficult) == 1: continue # 通过类别名称找到id cls_id = classes.index(cls) # 找到bndbox 对象 xmlbox = obj.find("bndbox") # 获取对应的bndbox的数组 = ["xmin","xmax","ymin","ymax"] b = (float(xmlbox.find("xmin").text), float(xmlbox.find("xmax").text), float(xmlbox.find("ymin").text), float(xmlbox.find("ymax").text)) print(image_id, cls, b) # 带入进行归一化操作 # w = 宽, h = 高, b= bndbox的数组 = ["xmin","xmax","ymin","ymax"] bb = convert((w, h), b) # bb 对应的是归一化后的(x,y,w,h) # 生成 calss x y w h 在label文件中 out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + "\n") if __name__ == "__main__": ROOT = "/app/yyq/dataset/fourth_project/yolov5_dataset/" for image_set in sets: """ 对所有的文件数据集进行遍历 做了两个工作: 1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去 方便定位 2.同时对所有的图片文件进行解析和转化,将其对应的 bundingbox 以及类别的信息全部解析写到 label 文件中去 最后再通过直接读取文件 就能找到对应的 label 信息 """ # 先找labels文件夹如果不存在则创建 if not os.path.exists(ROOT + "labels/"): os.makedirs(ROOT + "labels/") # 读取在 ImageSets 中的train、test..等文件的内容 # 包含对应的文件名称 image_ids = open(ROOT + "ImageSets/%s.txt" % (image_set)).read().strip().split() # 打开对应的.txt 文件对其进行写入准备 list_file = open(ROOT + "%s.txt" % (image_set), "w") # 将对应的文件_id以及全路径写进去并换行 for image_id in image_ids: list_file.write(ROOT + "images/%s.jpg\n" % (image_id)) # 开始解析xml文件的标注格式 convert_annotation(root=ROOT, image_id=image_id) # 关闭文件 list_file.close()
运行后会生成如下labels文件夹和三个包含数据集的txt文件,其中labels中为不同图像的标注文件,train.txt等txt文件为划分后图像所在位置的绝对路径,如train.txt就含有所有训练集图像的绝对路径。
运行voc_label.py时报错“ZeroDivisionError: float division by zero”的原因是:标注文件中存在width为0或者height为0的数据,检查修改后可解决。
三个txt文件里面的内容如下:
1)数据集的配置
在yolov5目录下的data文件夹下新建一个 wet_waste.yaml文件(可以自定义命名),用来存放训练集和验证集的划分文件(train.txt和val.txt),这两个文件是通过运行voc_label.py代码生成的,然后是目标的类别数目和具体类别列表,wet_waste.yaml内容如下:
train: /app/yyq/dataset/fourth_project/yolov5_dataset/train.txt # train images (relative to 'path') 128 images
val: /app/yyq/dataset/fourth_project/yolov5_dataset/val.txt # val images (relative to 'path') 128 images
test: # test images (optional)
# Classes
nc: 4 # number of classes
names: ['a', 'b', 'c', 'd'] # class names
疑问:wet_waste.yaml 文件中 train 和 val 通过 train.txt 和 val.txt 指定,我在训练时报错
(别人没有报错,很费解!评论中有人遇到一样的报错,给出解决方法是:发现冒号后面需要加空格,否则会被认为是字符串而不是字典,可以试一下)
2)选择一个你需要的模型
在yolov5目录下的model文件夹下是模型的配置文件,这边提供s、m、l、x版本,逐渐增大(随着架构的增大,训练时间也是逐渐增大),假设采用yolov5s.yaml,只用修改一个参数,把nc改成自己的类别数;如果anchors是重新生成的,也需要修改,根据anchors.txt 中的 Best Anchors 修改,需要取整(可选) 如下:
至此,自定义数据集已创建完毕,接下来就是训练模型了。
1、下载权重
data/scripts/download_weights.sh
运行这个 文件就可以下载相对应的权重
2、训练
在train.py进行以下几个修改:
以上参数解释如下:
epochs:指的就是训练过程中整个数据集将被迭代多少次,显卡不行你就调小点。 batch-size:一次看完多少张图片才进行权重更新,梯度下降的mini-batch,显卡不行你就调小点。 cfg:存储模型结构的配置文件 data:存储训练、测试数据的文件 img-size:输入图片宽高,显卡不行你就调小点。 rect:进行矩形训练 resume:恢复最近保存的模型开始训练 nosave:仅保存最终checkpoint notest:仅测试最后的epoch evolve:进化超参数 bucket:gsutil bucket cache-images:缓存图像以加快训练速度 weights:权重文件路径 name:重命名results.txt to results_name.txt device:cuda device, i.e. 0 or 0,1,2,3 or cpu adam:使用adam优化 multi-scale:多尺度训练,img-size +/- 50% single-cls:单类别的训练集
之后运行训练命令如下:
python train.py --img 640 --batch 16 --epoch 300 --data data/abb.yaml --cfg models/yolov5s.yaml --weights yolov5s.pt --device '0' # 0号GPU
根据自己的硬件配置修改参数,训练好的模型会被保存在yolov5目录下的runs/exp/weights/last.pt和best.pt,详细训练数据保存在runs/exp/results.txt文件中。
2、训练过程可视化
利用tensorboard可视化训练过程,训练开始会在yolov5目录生成一个runs文件夹,利用tensorboard打开即可查看训练日志,命令如下:
tensorboard --logdir=runs
至此YOLOv5训练自己的数据集,训练阶段已完毕。
YOLOv5训练速度更快,准确率更高,个人感觉最大的优势是相比YOLOv3,YOLOv5的模型更加轻量级,同样的数据集训练出来的模型大小是YOLOv3的将近四分之一大小。
评估模型好坏就是在有标注的测试集或者验证集上进行模型效果的评估,在目标检测中最常使用的评估指标为mAP。在val.py 文件中指定数据集配置文件和训练结果模型,如下:
通过下面的命令进行模型测试:
python test.py --data data/wet_waste.yaml --weights runs/train/exp/weights/best.pt --augment
模型测试效果如下:
最后,模型在没有标注的数据集上进行推理,在detect.py文件中指定测试图片和测试模型的路径,其他参数(img_size、置信度object confidence threshold、IOU threshold for NMS)可自行修改,如下:
使用下面的命令(该命令中save_txt选项用于生成结果的txt标注文件,不指定则只会生成结果图像),其中,weights使用最满意的训练模型即可,source则提供一个包含所有测试图片的文件夹路径即可。
直接运行没有产生txt的标签
python detect.py --weights runs/train/exp/weights/best.pt --source data/images1/ --device 0 --save-txt
终端运行会产生txt的标签
在进行模型推理时,无论是加载模型的速度还是对测试图片的推理速度,都能明显感觉到YOLOv5比YOLOv3速度快,尤其是加载模型的速度,因为同样的数据集训练出来的模型YOLOv5更加轻量级,模型大小减小为YOLOv3的将近四分之一。
至此YOLOv5训练自己的数据集整个过程:制作数据集----模型训练----模型测试----模型推理阶段已全部完成。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。