赞
踩
写在前面:YOLOv5是YOLO系列的一个大版本,可是在这个系列里yolov5官网也在不断更新“小版本”,有时旧版的问题去了新版的问题又来了,又有许多人会因为不熟悉yolov5新版本的代码位置而重复做一些不必要的源码调试配置。
在这里我用指定一个源码版本YOLOv5.5进行训练演示,我的方法也是从更老的版本带过了的,但确能兼容该版本。
系统:Ubuntu 21.10
编辑器:pycharm-community-2021.3.1
pytorch版本:pytorch 1.12.1(py3.9_cuda11.3_cudnn8.3.2_0)
python版本:3.9
yolo版本:YOLOv5.50
数据集格式:VOC
注:首先感谢“深度学习菜鸟”、“康司淡定”等博主的文章指导,令我收益颇丰。
一、GitHub下载YOLOv5.5版本
1、地址:https://github.com/ultralytics/yolov5/releases/tag/v5.0
(该地址也可从YOLOv5官网github中找到releases(指其他版本)窗口进入,再下滑找到v5.0版本)
2、进入该网页下滑找到Assets下载列表中source code源代码进行下载,即是yolov5.5版本源码
3、解压后形成单独文件夹“yolov5-5.0”,此后我们的操作均在此文件夹上进行。
二、自己的数据集导入YOLOv5配置
在yolov5的文件夹中新建文件paper_data。这个文件夹主要用来处理自己的原始数据集(初始数据集需要.jpg+.xml数据,如果没有.xml意味着你还没有对图片进行标注,建议先下载labelImg进行标注)
在paper_data中建立“images”、“Annotations”、“ImageSets”三个字文件夹。
images:存放.jpg图像图片
Annotations:存放.xml文件
ImageSets:建立子文件夹“Main”
接下来,“images”、“Annotations”作为初始数据来源我们就不用移动或者改变它们了,其他地方调用即可。我们现在对ImageSets进行操作,我们在paper_data文件夹下建立split_paper_data.py
- # coding:utf-8
-
- import os
- import random
- import argparse
-
- parser = argparse.ArgumentParser()
- #xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
- parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
- #数据集的划分,地址选择自己数据下的ImageSets/Main
- parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
- opt = parser.parse_args()
-
- trainval_percent = 1.0
- train_percent = 0.9
- xmlfilepath = opt.xml_path
- txtsavepath = opt.txt_path
- total_xml = os.listdir(xmlfilepath)
- if not os.path.exists(txtsavepath):
- os.makedirs(txtsavepath)
-
- num = len(total_xml)
- list_index = range(num)
- tv = int(num * trainval_percent)
- tr = int(tv * train_percent)
- trainval = random.sample(list_index, tv)
- train = random.sample(trainval, tr)
-
- file_trainval = open(txtsavepath + '/trainval.txt', 'w')
- file_test = open(txtsavepath + '/test.txt', 'w')
- file_train = open(txtsavepath + '/train.txt', 'w')
- file_val = open(txtsavepath + '/val.txt', 'w')
-
- for i in list_index:
- name = total_xml[i][:-4] + '\n'
- if i in trainval:
- file_trainval.write(name)
- if i in train:
- file_train.write(name)
- else:
- file_val.write(name)
- else:
- file_test.write(name)
-
- file_trainval.close()
- file_train.close()
- file_val.close()
- file_test.close()
运行代码以后会在ImageSets/Main文件夹下生成下面四个txt文档,目的是对数据进行划分,训练集、验证集等
对数据划分结束后,我们需要对Annotation中.xml的数据进行解析,需要解析成.txt的格式,将五类标签信息“class, x_center, y_center, width, height”提取出来方能为代码彻底接受。同时建立三个.txt文件作为训练集、测试集、验证集的路径指导。这一步操作需要在yolov5_5.0文件夹下建立voc_label.py实现
- # -*- coding: utf-8 -*-
- import xml.etree.ElementTree as ET
- import os
- from os import getcwd
-
- sets = ['train', 'val', 'test']
- classes = ['gun','knife','pliers','scissors','wrench'] # 改成自己的类别
- abs_path = os.getcwd()
- print(abs_path)
-
- def convert(size, box):
- dw = 1. / (size[0])
- dh = 1. / (size[1])
- x = (box[0] + box[1]) / 2.0 - 1
- y = (box[2] + box[3]) / 2.0 - 1
- w = box[1] - box[0]
- h = box[3] - box[2]
- x = x * dw
- w = w * dw
- y = y * dh
- h = h * dh
- return x, y, w, h
-
- def convert_annotation(image_id):
- in_file = open('/home/austin/csdn/yolov5-5.0/paper_data/Annotations/%s.xml' % (image_id), encoding='UTF-8')
- out_file = open('/home/austin/csdn/yolov5-5.0/paper_data/labels/%s.txt' % (image_id), 'w')
- tree = ET.parse(in_file)
- root = tree.getroot()
- size = root.find('size')
- w = int(size.find('width').text)
- h = int(size.find('height').text)
- for obj in root.iter('object'):
- difficult = obj.find('difficult').text
- #difficult = obj.find('Difficult').text
- cls = obj.find('name').text
- if cls not in classes or int(difficult) == 1:
- continue
- cls_id = classes.index(cls)
- xmlbox = obj.find('bndbox')
- b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
- float(xmlbox.find('ymax').text))
- b1, b2, b3, b4 = b
- # 标注越界修正
- if b2 > w:
- b2 = w
- if b4 > h:
- b4 = h
- b = (b1, b2, b3, b4)
- bb = convert((w, h), b)
- out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
-
- wd = getcwd()
- for image_set in sets:
- if not os.path.exists('/home/austin/csdn/yolov5-5.0/paper_data/labels/'):
- os.makedirs('/home/austin/csdn/yolov5-5.0/paper_data/labels/')
- image_ids = open('/home/austin/csdn/yolov5-5.0/paper_data/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()
- list_file = open('paper_data/%s.txt' % (image_set), 'w')
- for image_id in image_ids:
- list_file.write(abs_path + '/paper_data/images/%s.jpg\n' % (image_id))
- convert_annotation(image_id)
- list_file.close()
运行代码后,成功生成“labels”文件,其中就是包含.txt格式对目标的标注信息。和另外三个test.txt、train.txt、val.txt是路径指导。
labels中其中一个.txt文件的数据,一行五个数据对应class, x_center, y_center, width, height五个信息。
至此,数据集的配置已经完成了。接下来我们进入代码配置调用程序。
三、配置.yaml文件
总而言之paper_data一切操作只是将数据集改造成代码可以识别的样子。而代码的调用该数据集的程序我们还需要一步配置。
在yolov5-5.0/data文件夹下建立my.yaml
- train: /home/austin/csdn/yolov5-5.0/paper_data/train.txt
- val: /home/austin/csdn/yolov5-5.0/paper_data/val.txt #改成自己路径
-
- #number of classes
- nc: 5 #改成自己数据集分类个数
-
- #class names
- names: ['gun','knife','pliers','scissors','wrench'] #改成自己的标签
-
四、train.py中调用数据集
在train.py中找到配置部分,更改 default='data/my.yaml' 成为了my.yaml的路径。
五、更改v5.0版本的bug
很多人在直接运行训练代码时都会报错:
(RuntimeError: result type Float can‘t be cast to the desired output type long int)
这个bug在master版本或其他版本少见,对于我们这个yolov5-5.0版本,需要改动loss.py中的两行代码进行修正。(loss.py路径:yolov5-5.0/utils/loss.py)
提示两次更改位置均在最后一个for循环。
第一个更改:
anchors, shape = self.anchors[i], p[i].shape
将面代码替换掉原码中的 “anchors = self.anchors[i]” 部分,即
第二个更改:
indices.append((b, a, gj.clamp_(0, shape[2] - 1), gi.clamp_(0, shape[3] - 1))) # image, anchor, grid
将面代码替换掉原码中的 “indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices” 部分,即
bug消除完成!
六、开始训练数据集
在train.py中调配参数进行训练,基础调节epochs、batch-size、img-size等参数。在run/train/exp文件中查看训练结果。
训练结果缩略
后续可在detect.py中进行检测,在run中查看结果。
最后:
运用YOLOv5训练自己的数据集的教程至此就结束了。关于训练结果的一些概念解释,我的其他博客有详解欢迎大家学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。