赞
踩
玩一段时间大模型,也该回归一下图像识别。本项目用于记录使用基于Ultralytics的yolov5进行目标检测测试。为什么用Ultralytics呢?答案有3
1、其良好的生态,方便我们部署到其它语言和设备上。因此本次测试结论:大坑没有,小坑不断~
2、对新手极度友好,只要装好依赖,按官方教程就可以运行起来。甚至export.py集成权重文件的各种转换功能比如:转ONNX文件!!
3.其对自定义数据集要求低,训练难度大减。当我们制作训练集时无需考虑吧图片压缩切割到成512x512或者640x640。只管找图标注,Ultralytics在train时会自动帮处理这些不合格尺寸的图片(爽爆了!!!)
本篇使用的yolo5模型大小为yolov5l
由于需要识别一图片些细小的物体,我在Ultralytics的yolov5添加了一些注意力机制,但本次不会展开说,因为添加注意力前后对我们训练和预测的操作流程都没有任何影响。
也不知道是该夸还是该骂( ̄ェ ̄;)
Ultralytics提供了许多训练集数据格式,可以VOC、COCO、SKU等等。
但是label的数据格式不是xml而是txt…额…这就有些坑爹了▄█▀█●
以下我只选用其中一种格式:VOC实现
我采集数据文件夹取名MY_DataSet
MY_DataSet
├── images
└── train
└── val
└── labels
└── train
└── val
└── dataset.yaml
labels/train里的文件如下:
txt内容如下:
参考图图片如下:
即数据格式为:种类、x、y、w、h
通过以下方法可以使xml格式转成txt
def convert_annotation(voc_name,image_set,image_id): in_file = open('data/%s/Annotations/%s.xml' % (voc_name,image_id), encoding='utf-8') out_file = open('data/%s/labels/%s/%s.txt' % (voc_name,image_set,image_id), 'w', encoding='utf-8') tree = ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): difficult = obj.find('difficult').text # difficult = obj.find('Difficult').text cls = obj.find('name').text if cls not in classes or int(difficult) == 1: continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) b1, b2, b3, b4 = b # 标注越界修正 if b2 > w: b2 = w if b4 > h: b4 = h b = (b1, b2, b3, b4) bb = convert((w, h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
train: 本文件夹相对于trian.py文件的位置/MY_DataSet/images/train
val: 本文件夹相对于trian.py文件的位置/MY_DataSet/images/val
nc: 4
names: ['华强','西瓜','刀子','背带裤']
到Ultralytics项目下的models文件夹找到对应yolo5l.yaml文件打开它将
nc: 80 # number of classes
改成你识别类的总数即可,我这只有4类改成4即可。
nc: 4 # number of classes
在安装好Ultralytics的yolo5l.yaml和配置好训练数据后运行代码
python train.py --img 512 --batch 16 --epoch 300 --data dataset.yaml的相对位置 --cfg models/yolov5l.yaml --weights yolov5l.pt的位置
即可!!开始训练
默认会保存在项目的runs/train/exp/weights/文件夹中
python detect.py --weights runs/train/exp/weights/best.pt --data 训练集dataset.yaml的相对路径 --source 图片路径
2. 卡主或显示Download
这个我要着重标黑,因为很重要!!!很重要!!!很重要!!!
Downloading https://ultralytics.com/assets/Arial.Unicode.ttf to/root/.config/Ultralytics/Arial.Unicode.ttf...
答:初次运行,yolo5会检测你在/root/.config/Ultralytics的目录下是否有Arial.ttf 文件在,如果没有该文件,它会自动下载给你安装给你安装。由于需要连接该比较耗时。建议直接去网上下载文件
https://ultralytics.com/assets/Arial.Unicode.ttf
如果下载失败也可用我下载的文件,然后放到对应目录下即可。
UnicodeEncodeError: 'latin-1' codec can't encode characters in position 0-1: ordinal not in range(256)
当你把问题2解决了,还遇到这问题,那很可能就是你Pillow包有问题了,这个坑恶心了我一整天。
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple Pillow==10.0.1
答:这个是在windows运行时会报的问题。在from pathlib import Path前插入如下代码即可
import pathlib
pathlib.PosixPath = pathlib.WindowsPath
注意:如果要弄到到Linux时,记得把这两行删了
AttributeError: module 'cv2.dnn' has no attribute 'DictValue'
cv2版本改一下即可
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple opencv-python==4.8.0.74 opencv-contrib-python==4.8.0.74
题外话:
这个错误是非常有意思的,本地环境是windows ,conda安装的opencv-python==4.9.0.80能正常运行,但是在LInux上的原生python环境就不行,我之前尝试各种修复方法,结论就是别去瞎折腾修复,能换版本解决的就换版本,别给自己找花活(比如尝试用opencv-fixer修复该错误ヽ(ー_ー)ノ),笑死~~
训练+预测至此结束咯~~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。