赞
踩
-
YOLOv5(You Only Look Once)是由 UitralyticsLLC公司发布的一种单阶段目标检测算-
法,YOLOv5 相比YOLOv4 而言,在检测平均精度降低不多的基础上,具有均值权重文件更小,训练时间和推理速度更短的特点。YOLOv5 的网络结构分为输入端、BackboneNeck、Head 四个部分。
输入端主要包括 Mosaic 数据增强、图片尺寸处理以及自适应锚框计算三部分。Mosaic数据增强将四张图片进行组合,达到丰富图片背景的效果;图片尺寸处理对不同长宽的原始图像自适应的添加最少的黑边,统一缩放为标准尺寸;自适应锚框计算在初始锚框的基础上,将输出预测框与真实框进行比对,计算差距后再反向更新,不断迭代参数来获取最合适的锚框值。
Backbone 主要包含了 BottleneckCSP和 Focus 模块。BottleneckCSP 模块在增-
强整个卷积神经网络学习性能的同时大幅减少了计算量;Focus 模块对图片进行切片操作,将输入通道扩充为原来的 4 倍,并经过一次卷积得到下采样特征图,在实现下采样的同时减少了计算量并提升了速度,具体操作如下图 所示。
Neck 中采用了 FPN 与 PAN 结合的结构,将常规的 FPN 层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。
Head 输出一个向量,该向量具有目标对象的类别概率、对象得分和该对象边界框的位置。检测网络由三层检测层组成,不同尺寸的特征图用于检测不同尺寸的目标对象。每个检测层输出相应的向量,最后生成原图像中目标的预测边界框和类别并进行标记。
进入github官网,压缩包下载或git clone下载
git clone https://github.com/ultralytics/yolov5
进入yolov5项目文件夹,安装模块
cd yolov5-master-
pip install -r requirement.txt
模型标注有很多软件,这里采用labelImg软件进行标注
软件下载
pip install PyQt5 -i https://pypi.tuna.tsinghua.edu.cn/simple/-
pip install pyqt5-tools -i https://pypi.tuna.tsinghua.edu.cn/simple/-
pip install lxml -i https://pypi.tuna.tsinghua.edu.cn/simple/-
pip install labelImg -i https://pypi.tuna.tsinghua.edu.cn/simple/
打开labelImg-
在你所下载的环境中,输入:
labelImg #注意大小写
打开后如下图-
使用软件标注-
界面说明-
-
使用流程: opendir(打开文件)------------》选择yolo标注格式-----------》打标签-------》保存
打标签:-
点击Create RectBo -> 拖拽鼠标框选目标 -> 给上标签 -> 点击ok。
注:若要删除目标,右键目标区域,delete即可
将部分打完标签的数据利用YOLOV5模型进行训练,利用训练好的权重进行未标注图像的自动打标签功能,标注错误或漏标的框可以在LabelImg中手动调整。
流程:
训练自己的yolov5检测模型的时候,数据集需要划分为训练集和验证集。如果数据格式是xml的,需要转为txt格式(yolov5格式)
创建文件夹(可跟据自己的项目调整)-
-
其中Annotations文件夹中是标注文件,JPEGLmages中是图片文件-
-
在VOC2007创建ImageSets文件夹,以及split_train_val.py脚本进行数据划分
import os
import random
trainval_percent = 0.9 # 训练集和验证集一共占所有数据的90%
train_percent = 0.9 # 训练集占训练集和验证集的90%
xmlfilepath = 'JPEGImages'
txtsavepath = 'ImageSets'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv) #从所有list中返回tv个数量的项目
train = random.sample(trainval, tr)
if not os.path.exists('ImageSets/'):
os.makedirs('ImageSets/')
ftrainval = open('ImageSets/trainval.txt', 'w')
ftest = open('ImageSets/test.txt', 'w')
ftrain = open('ImageSets/train.txt', 'w')
fval = open('ImageSets/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftrain.write(name)
else:
fval.write(name)
else:
ftest.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
执行脚本后在ImageSets文件夹下会出现四个文件-
用来将所有的xml文件all_xml转为txt文件并存放到all_labels文件夹,并生成训练所需架构,在VOC2007目录下建立voc_label.py脚本文件。
# -*- coding=utf-8 -*-
import xml.etree.ElementTree as ET
import pickle
import os
import shutil
from os import listdir, getcwd
from os.path import join
sets = ['train', 'val', 'test'] # 如果不需要test就不写
classes = ['car', 'supercar'] # 修改成自己数据集的类别
def convert(size, box):
dw = 1. / size[0]
dh = 1. / size[1]
x = (box[0] + box[1]) / 2.0
y = (box[2] + box[3]) / 2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return (x, y, w, h)
def convert_annotation(image_id):
in_file = open('all_xml/%s.xml' % (image_id),encoding='utf-8')
out_file = open('Annotations/%s.txt' % (image_id), 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
print(wd)
for image_set in sets:
if not os.path.exists('Annotations/'):
os.makedirs('Annotations/')
image_ids = open('ImageSets/%s.txt' % (image_set),encoding='utf-8').read().strip().split()
image_list_file = open('images_%s.txt' % (image_set), 'w',encoding='utf-8')
labels_list_file=open('labels_%s.txt'%(image_set),'w',encoding='utf-8')
for image_id in image_ids:
image_list_file.write('%s.jpg\n' % (image_id))
labels_list_file.write('%s.txt\n'%(image_id))
# convert_annotation(image_id) #如果标签已经是txt格式,将此行注释掉,所有的txt存放到Annotations文件夹。
image_list_file.close()
labels_list_file.close()
def copy_file(new_path,path_txt,search_path):#参数1:存放新文件的位置 参数2:为上一步建立好的train,val训练数据的路径txt文件 参数3:为搜索的文件位置
if not os.path.exists(new_path):
os.makedirs(new_path)
with open(path_txt, 'r') as lines:
filenames_to_copy = set(line.rstrip() for line in lines)
# print('filenames_to_copy:',filenames_to_copy)
# print(len(filenames_to_copy))
for root, _, filenames in os.walk(search_path):
# print('root',root)
# print(_)
# print(filenames)
for filename in filenames:
if filename in filenames_to_copy:
shutil.copy(os.path.join(root, filename), new_path)
#按照划分好的训练文件的路径搜索目标,并将其复制到yolo格式下的新路径
copy_file('./images/train/','./images_train.txt','./JPEGImages')
copy_file('./images/val/','./images_val.txt','./JPEGImages')
copy_file('./images/test/','./images_test.txt','./JPEGImages')
copy_file('./labels/train/','./labels_train.txt','./Annotations')
copy_file('./labels/val/','./labels_val.txt','./Annotations')
copy_file('./labels/test/','./labels_test.txt','./Annotations')
执行后会出现图片和文本目录,如下-
-
到处就数据集就创建完成了
在yolov5目录下新建一个目录,把之前划分的图片和文本拷贝之此目录下-
预训练模型地址:https://github.com/ultralytics/yolov5/releases
选择你所需要的模型下载即可,这里我选择yolov5s.pt下载。
各个模型参数对比-
-
下载好后将文件放到yolov5文件夹下-
修改data目录下的相应的yaml文件。找到目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名,最好和项目相关,这样方便后面操作。我这里修改为car.yaml。-
由于该项目使用的是yolov5s.pt这个预训练权重,所以要使用models目录下的yolov5s.yaml文件中的相应参数(因为不同的预训练权重对应着不同的网络层数,所以用错预训练权重会报错)。同上修改data目录下的yaml文件一样,我们最好将yolov5s.yaml文件复制一份,然后将其重命名,我将其重命名为car.yaml。-
-
修改训练轮数和批次-
-
至此,就可以运行train.py函数训练自己的模型了。
yolov5里面有写好的tensorbord函数,可以运行命令就可以调用tensorbord,然后查看tensorbord了。首先打开pycharm的命令控制终端,输入如下命令,就会出现一个网址地址,将那行网址复制下来到浏览器打开就可以看到训练的过程了
tensorboard --logdir=runs/train
-
访问链接, 如下图所示-
-
如果模型已经训练好了,但是我们还想用tensorbord查看此模型的训练过程,就需要输入如下的命令。就可以看到模型的训练结果了。
tensorboard --logdir=runs
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。