当前位置:   article > 正文

【目标检测】2024最新-用YOLOv8训练自己的数据集(保姆级教学)_yolov8 预训练模型怎么选择

yolov8 预训练模型怎么选择

【2024.4】Windows11系统

        1.为打开网页流畅,建议准备梯子,打开Github等网站时会明显加快

        2.准备Anaconda,可参考其他博主文章下载

一、代码下载

官网下载Yolov8(建议开梯子)

二、环境配置

1.在Anaconda中利用conda命令创建环境yolov8,并激活环境

  1. -- 创建环境
  2. conda create -n yolov8 python=3.9
  3. -- 激活环境
  4. conda activate yolov8

2.pip的源换到国内aliyun镜像,会提高下载速度

pip config set install.trusted-host mirrors.aliyun.com

3.安装一下yolov8在python>=3.8版本必要安装包,配置文件已经内置其中:

pip install ultralytics

4.下载预训练权重模型:

(1)推荐yolov8s.pt或者yolov8n.pt,模型小,下载快(用梯子)

(2)下载完成后,将模型放在ultralytics-main文件夹下

5.检验环境:

(1)在环境中打开项目ultralytics-main:

       ① 在Anaconda Prompt中cd到ultralytics-main目录下

       ② 在Pycharm终端直接打开

(2)运行以下指令:

yolo predict model=yolov8n.pt source='ultralytics/assets/bus.jpg'

(3)若运行成功会在D:\ultralytics-main下生成\runs\detect\predict,且文件中会包含一张照片

三、训练模型

【CPU】

1.准备工作:

(1)在ultralytics-main目录下新建data文件夹;

(2)再在data目录下新建四个文件夹:Annotations文件夹,images文件夹,ImageSets文件夹,labels文件夹

2.准备数据集:

(1)将准备好的图片以.jpg的格式放入images文件夹中

(2)利用labelimg进行标注后将生成的.xml文件保存至Annotations文件夹中

3.数据集的划分:

(1)在ultralytics-main目录下创建一个split_train_val.py文件;

(2)运行文件之后会在imageSets文件夹下将数据集划分为训练集train.txt、验证集val.txt、测试集test.txt,里面存放的就是用于训练、验证、测试的图片名称,代码内容如下:

  1. import os
  2. import random
  3. trainval_percent = 0.9
  4. train_percent = 0.9
  5. xmlfilepath = 'data/Annotations'
  6. txtsavepath = 'data/ImageSets'
  7. total_xml = os.listdir(xmlfilepath)
  8. num = len(total_xml)
  9. list = range(num)
  10. tv = int(num * trainval_percent)
  11. tr = int(tv * train_percent)
  12. trainval = random.sample(list, tv)
  13. train = random.sample(trainval, tr)
  14. ftrainval = open('data/ImageSets/trainval.txt', 'w')
  15. ftest = open('data/ImageSets/test.txt', 'w')
  16. ftrain = open('data/ImageSets/train.txt', 'w')
  17. fval = open('data/ImageSets/val.txt', 'w')
  18. for i in list:
  19. name = total_xml[i][:-4] + '\n'
  20. if i in trainval:
  21. ftrainval.write(name)
  22. if i in train:
  23. ftrain.write(name)
  24. else:
  25. fval.write(name)
  26. else:
  27. ftest.write(name)
  28. ftrainval.close()
  29. ftrain.close()
  30. fval.close()
  31. ftest.close()
4.转化数据集格式:

(1)在ultralytics-main目录下创建一个voc_label.py文件

(2)运行后会生成转换后labels文件夹下图片的txt文件,还会在data文件夹下得到三个包含数据集路径的txt文件,train.tx,test.txt,val.txt这3个txt文件为划分后图像所在位置的绝对路径

(3)代码内容如下:

  1. import xml.etree.ElementTree as ET
  2. import os
  3. from os import getcwd
  4. sets = ['train', 'val', 'test']
  5. classes = ['填写自己的类别']
  6. abs_path = os.getcwd()
  7. print(abs_path)
  8. def convert(size, box):
  9. dw = 1. / (size[0])
  10. dh = 1. / (size[1])
  11. x = (box[0] + box[1]) / 2.0 - 1
  12. y = (box[2] + box[3]) / 2.0 - 1
  13. w = box[1] - box[0]
  14. h = box[3] - box[2]
  15. x = x * dw
  16. w = w * dw
  17. y = y * dh
  18. h = h * dh
  19. return x, y, w, h
  20. def convert_annotation(image_id):
  21. in_file = open('data/Annotations/%s.xml' % (image_id), encoding='UTF-8')
  22. out_file = open('data/labels/%s.txt' % (image_id), 'w')
  23. tree = ET.parse(in_file)
  24. root = tree.getroot()
  25. size = root.find('size')
  26. w = int(size.find('width').text)
  27. h = int(size.find('height').text)
  28. for obj in root.iter('object'):
  29. # difficult = obj.find('difficult').text
  30. difficult = obj.find('difficult').text
  31. cls = obj.find('name').text
  32. if cls not in classes or int(difficult) == 1:
  33. continue
  34. cls_id = classes.index(cls)
  35. xmlbox = obj.find('bndbox')
  36. b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
  37. float(xmlbox.find('ymax').text))
  38. b1, b2, b3, b4 = b
  39. # 标注越界修正
  40. if b2 > w:
  41. b2 = w
  42. if b4 > h:
  43. b4 = h
  44. b = (b1, b2, b3, b4)
  45. bb = convert((w, h), b)
  46. out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
  47. wd = getcwd()
  48. for image_set in sets:
  49. if not os.path.exists('data/labels/'):
  50. os.makedirs('data/labels/')
  51. image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
  52. list_file = open('data/%s.txt' % (image_set), 'w')
  53. for image_id in image_ids:
  54. list_file.write(abs_path + '/data/images/%s.jpg\n' % (image_id))
  55. convert_annotation(image_id)
  56. list_file.close()
5.编写数据集配置文件:

在ultralytics-main目录下创建 wheat.yaml,代码内容如下:

  1. train: D:/ultralytics-main/data/train.txt
  2. val: D:/ultralytics-main/data/val.txt
  3. test: D:/ultralytics-main/data/test.txt
  4. nc: 5 # 填写类别数
  5. names: ["填写自己的类别"]
  6. # train,val,test的路径根据自己情况而定
6.下载CPU版pytorch:

(1)具体网站(用梯子):Previous PyTorch Versions | PyTorch 选择找到与cpu相关的pip指令,例如:

(2)在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可

7.命令行运行:

(1)同样先在环境中打开项目ultralytics-main(参考二、5.(1))

(2)运行训练指令:

yolo train data=data/data.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=cpu

data为yaml配置文件,后边填写你的配置文件的绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imagez为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,使用显卡大多数都是0,多显卡就0,1,2...多少显卡往后写多少 

【GPU】

1.检查自己电脑的CUDA版本:

(1)点击键盘 win + i ,输入cmd,敲击回车

(2)输入以下指令: 

nvidia-smi

(3)显示出以下内容说明系统已安装CUDA:

​         eg:若未显示此界面,则去CUDA官网下载与系统兼容版本 

2.下载pytorch:

(1)只能下载 <= CUDA Version的pytorch版本,这里我们选择找到pip相关指令

(2)具体网站:(用梯子)Previous PyTorch Versions | PyTorch

(3) 在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可

3.下载torch的gpu版本:

(1)在环境中打开项目ultralytics-main(参考二、5.(1))

(2)输入指令查看torch是否为gpu版本:

pip list

如下图, torch那行对应的torch版本,例如这样就是cpu版本,需要去下载相关torch的gpu版本

(3)打开网址:http://download.pytorch.org/whl/torch_stable.htmlicon-default.png?t=N7T8http://download.pytorch.org/whl/torch_stable.html

        

        cu121/表示你在教程【GPU】1.当中官网上下载的cuda版本

        torch-2.2.2%2Bcu121/表示刚才在pip list中查看的torch的版本

        cp312-cp312表示你yolov8的环境python版本,如果按我的教程来的话为3.9

        win-amd64.whl简而言之就是windows系统

① 按照上述要求找到你需要的下载链接点进去

② 在D盘新建一个文件夹D:\torch_gpu,保存在其中

③ 在项目环境中输入指令:(后面的路径为你whl所保存的位置)

pip install D:\torch_gpu\torch-2.2.2+cu121-cp39-cp39-win_amd64.whl

(4)检验是否安装成功:

 ① 在环境中打开项目ultralytics-main(参考二、5.(1))

② 输入指令:

pip list

 

--------------------------------出现+cu+你的cuda版本型号即为安装成功---------------------------------------- 

4. 运行训练命令:

(1)参考【CPU】1--5 

(2) 同样先在环境中打开项目ultralytics-main(参考二、5.(1))

(3)运行以下指令:

yolo train data=data/wheat.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=0

data为yaml配置文件,后边填写你的配置文件的绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imagez为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,gpu使用显卡大多数都是0,多显卡就0,1,2,3,...多少显卡往后写多少

 四、过程细节

1.最终 ultralytics-main 目录下整体情况如下:

eg :红色框内部分为自己添加的部分,runs文件夹的生成参考二、6.(3)

2. 使用labelimg标注数据集转.xml格式

(1)安装并打开labelimg

① 在conda创建新环境labelimg,指令如下:

conda create -n labelimg  python=3.9

 ② 激活lalelimg环境,指令如下:

conda activate labelimg

③ 在此环境下安装labelimg,指令可如下:

  1. pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple #不推荐,会出现依赖缺失或者版本不匹配问题
  2. pip install labelimg #推荐用此方法安装

        eg:以一种方式安装即可

④ 打开labelimg,指令如下:

labelimg
(2)使用labelimg

① 打开labelimg:

② 使用介绍:

③ 与三、3.数据集划分相关步骤:

Ⅰ选择PascalVOC(即.xml格式)

Ⅱ 点击Open Dir打开文件夹D:\ultralytics-main\data\images中的.jpg格式的图片

Ⅲ Change Save Dir选择文件夹D:\ultralytics-main\data\Annotations

Ⅳ 打好标签以后若先前勾选View-Auto Save mode选项即可自动保存

3.Pycharm项目解释器的选择 

我使用的是Pycham2024.1版本,截止2024.4最新版本,解释器选择的conda环境,如下

如何加载conda环境 ?

找到Anaconda目录下的\Library\bin\conda.bat,然后加载环境选择yolov8即可,如下

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/643613
推荐阅读
相关标签
  

闽ICP备14008679号