赞
踩
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
提示:以下是本篇文章正文内容,下面案例可供参考
https://github.com/ultralytics/yolov5/tree/v6.1
1.将下载好的压缩包保存至一个没有中文的路径下,点击打开PyCharm,点击open按钮,在路径中找到刚刚的源码保存路径,即可在PyCharm中打开项目。
⚠此时可能会跳出一个框,让你配置环境,先直接关掉。(我们后面再配置环境)
2.打开Anaconda,在左侧选择environments,点击下方create,我创建了一个新环境,命名为yolo5_test。(建议选择python3.9与yolov5适配)
3.打开Pycharm设置Preference
新建Python解释器的环境
4.系列库的安装
(1).打开终端,输入命令进入创建的Anaconda环境
conda activate yolov5_test
(yolov5_test是我创建的环境名,需换成你的)
(2).配置torch和torchvision
pip install torch==1.8.1 torchvision==0.9.1 torchaudio==0.8.1
(输入后会自动提示适合你的版本,根据提示更改版本号安装即可)
(3).对照requirements.txt 配置其他所需安装包
pip install -r requirements.txt
这里我失败了,于是分别安装
pip install numpy
pip install opencv-python
pip install matplotlib
pip install pillow
pip install PyYAM
pip install scipy
pip install tqdm
pip install requests
5.运行程序
基本测试需要运行detect.py
(这里我运行时出现了bug,发现还有一些包未安装,根据提示又安装了缺少的包)
最终在pycharm中运行结果如下
打开exp查看结果
将视频放入yolov5-6.1/data/images/中,在pycharm中运行detect.py
打开yolov5-6.1/runs/detect/exp查看结果代码如下(示例):
在detect文件最后找到此行代码
改为:
cd_argument('--source', type=str, default='0', help='source') # file/folder, 0 for webcam
同样打开yolov5-6.1/runs/detect/exp查看结果
1.创建环境
创建一个新的anaconda环境
conda create -n tf python=3.9.18
(改成自己的python版本)
切换到tf环境(重新打开终端时要记得切到这个环境)
conda activate tf
(前面有(tf)则是转换成功)
2.安装macos版本的TensorFlow
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ tensorflow==2.6
3.pyqt5安装
法一
pip install pyqt5
(这里我失败了)
法二 安装homebrew
/usr/bin/ruby-e"$(curl-fsSLhttps://raw.githubusercontent.com/Homebrew/install/master/install)"
通过homebrew安装pyqt5
brew install pyqt5
4.安装torch和torchvision
pip install torch==1.7.1 torchvision==0.8.2 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/torch
5.安装labelimg
法一
pip install labelimg
这里我失败了
法二 进入labelimg的github地址https://github.com/HumanSignal/labelImg
打开终端输入cd 将labeling-master文件夹拖入
brew install qt
brew install libxml2
conda install lxml
make qt5py3
python labelImg.py
就可以用labelimg标注文件啦
在yolov5目录下新建一个名为VOCData的文件夹,在VOCData文件夹下创建 Annotations 和 images 文件夹。
images文件夹放要训练的图片
打开目录为images文件夹
更改存放目录为Annotions文件夹
标记图片快捷键:w:标记 a:上一张图片 d:下一张图片
标注的时候尽可能贴近物体轮廓
6.划分数据集以及配置文件修改
(1)划分训练集、验证集、测试集
在终端中打开images文件夹(根据自己路径找)
cd /Users/zhuoxiaohua/Documents/yolov5-6.1/VOCData/images
Is -a
rm .DS_Store
在macos下,文件夹内会生成.Ds_store隐藏文件要先删除
在VOCData目录下创建程序 split_train_val.py 并运行以下代码(代码可以不做任何修改)
#coding:utf-8 import os import random import argparse parser = argparse.ArgumentParser() #xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下 parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path') #数据集的划分,地址选择自己数据下的ImageSets/Main parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path') opt = parser.parse_args() trainval_percent = 1.0 # 训练集和验证集所占比例。 这里没有划分测试集 train_percent = 0.9 # 训练集所占比例,可自己进行调整 xmlfilepath = opt.xml_path txtsavepath = opt.txt_path total_xml = os.listdir(xmlfilepath) if not os.path.exists(txtsavepath): os.makedirs(txtsavepath) num = len(total_xml) list_index = range(num) tv = int(num * trainval_percent) tr = int(tv * train_percent) trainval = random.sample(list_index, tv) train = random.sample(trainval, tr) file_trainval = open(txtsavepath + '/trainval.txt', 'w') file_test = open(txtsavepath + '/test.txt', 'w') file_train = open(txtsavepath + '/train.txt', 'w') file_val = open(txtsavepath + '/val.txt', 'w') for i in list_index: name = total_xml[i][:-4] + '\n' if i in trainval: file_trainval.write(name) if i in train: file_train.write(name) else: file_val.write(name) else: file_test.write(name) file_trainval.close() file_train.close() file_val.close() file_test.close()
运行结束后会在生成一个名为 ImageSets 的文件夹
[说明]:在第14,15行代码中
训练集是用来训练模型的,通过尝试不同的方法和思路使用训练集来训练不同的模型;
验证集使用交叉验证来挑选最优的模型,通过不断的迭代来改善模型在验证集上的性能;
测试集用来评估模型的性能。
(2)XML格式转yolo_txt格式
在VOCData目录下创建程序 xml_to_yolo.py 并运行以下代码
注意:将classes改为自己标注时设置的类名(我这里叫"code"),将各个绝对路径修改为自己的
#-*- coding: utf-8 -*- import xml.etree.ElementTree as ET import os from os import getcwd sets = ['train', 'val', 'test'] classes = ["code"] # 改成自己的类别 abs_path = os.getcwd() print(abs_path) def convert(size, box): dw = 1. / (size[0]) dh = 1. / (size[1]) x = (box[0] + box[1]) / 2.0 - 1 y = (box[2] + box[3]) / 2.0 - 1 w = box[1] - box[0] h = box[3] - box[2] x = x * dw w = w * dw y = y * dh h = h * dh return x, y, w, h def convert_annotation(image): in_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/Annotations/%s.xml' % image, encoding='utf-8') out_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/%s.txt' % image, 'w') tree = ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): difficult = obj.find('difficult').text # difficult = obj.find('Difficult').text cls = obj.find('name').text if cls not in classes or int(difficult) == 1: continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) b1, b2, b3, b4 = b # 标注越界修正 if b2 > w: b2 = w if b4 > h: b4 = h b = (b1, b2, b3, b4) bb = convert((w, h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') wd = getcwd() for image_set in sets: if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/'): os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/') image_ids = open( '/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/ImageSets/Main/%s.txt' % image_set).read().strip().split() if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/'): os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/') list_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/%s.txt' % image_set, 'w') for image_id in image_ids: list_file.write('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/images/%s.jpeg\n' % image_id) convert_annotation(image_id) list_file.close()
运行后会生成dataSet_path 和 labels 文件夹。dataSet_path下会有三个数据集的txt文件,labels下存放各个图像的标注文件。
(3)配置文件
在 yolov5 的 data 文件夹下创建一个名为 myvoc.yaml,模板如下,改成自己的路径,根据自己实际情况填写:
(【
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。