赞
踩
目录(方便查找自己所需)
目录
YOLOv10是清华大学的研究人员在Ultralytics Python包的基础上,引入了一种新的实时目标检测方法,解决了YOLO 以前版本在后处理和模型架构方面的不足。通过消除非最大抑制(NMS)和优化各种模型组件,YOLOv10 在显著降低计算开销的同时实现了最先进的性能。大量实验证明,YOLOv10 在多个模型尺度上实现了卓越的精度-延迟权衡。
2、yolov10模型图
anaconda3、pycharm下载完成(最好不要最新版本,也不要太旧,本人使用2021.3)
1.模型下载: github模型代码下载
2.模型权重下载(非必须):yolov10模型下载相同位置,往下翻
我是直接放yolov10文件夹下,因为没太搞懂yolov10文件结构
打开anaconda prompt
cd进入你下载的yolov10文件夹中
创建yolov10环境:输入 conda create -n yolov10(代表环境名称)python=3.9(使用Python的版本),按y+回车
无脑复制
conda create -n yolov10 python=3.9
进入你刚安装的yolov10环境:conda activate yolov10(你的环境名称)
无脑复制
conda activate yolov10
进入后()会变成你环境名称 (判断是否安装成功)
首先到你下载的yolov10文件中找到requirements.txt文件
这个标记蓝色的直接删除,这是cpu版本的torch和torchvison(后续实验了一下删不删都可)
然后安装包里的库文件和去除模型只读权限
无脑复制
pip install -r requirements.txt
pip install -e .
只要中间不报错即为下载成功
cuda是连接GPU和模型训练的桥梁,pytorch是进入桥梁那段上坡的路(CPU训练慢,GPU快还好)(最好选择在虚拟环境安装,以下介绍为虚拟机安装过程)
查看cuda最高支持版本,win+R,输入cmd,打开命令窗口,输入nvidia-smi.exe,红框位置为最大可支持安装版本
无脑复制
conda install cudatoolkit=11.7
cuda是连接GPU和模型训练的桥梁,pytorch是进入桥梁那段上坡的路(pytorch库必须和cuda版本匹配)(其实这个在之前下载yolov10虚拟环境已经下载过了,但是为了确保你的pytorch版本和CUDA版本一致,所以这里在从下一遍以确保环境没有问题)
无脑复制(CUDA 11.7)Y+回车,两个任选其一,第一个是下载pytorch,第二个是下载torch,经过实验均可
conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.7 -c pytorch -c nvidia
安装后的结果
pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2
安装后的结果
或者去pytorch官网查找(只是教你怎么去找你所下载CUDA对应的pytorch,以防下载的别的版本的CUDA)(例如CUDA=11.8)
从下载的yolov10文件中去查看所需要的最低版本号
找到requirements.txt,可以看到是最低需要1.7.0版本
然后找到最低的pytorch版本号和对应的cuda版本,复制下面的代码
conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.8 -c pytorch -c nvidia
建立cuda.py
- import torch
- print('CUDA版本:',torch.version.cuda)
- print('Pytorch版本:',torch.__version__)
- print('显卡是否可用:','可用' if(torch.cuda.is_available()) else '不可用')
- print('显卡数量:',torch.cuda.device_count())
- print('当前显卡型号:',torch.cuda.get_device_name())
- print('当前显卡的CUDA算力:',torch.cuda.get_device_capability())
- print('当前显卡的总显存:',torch.cuda.get_device_properties(0).total_memory/1024/1024/1024,'GB')
- print('是否支持TensorCore:','支持' if (torch.cuda.get_device_properties(0).major >= 7) else '不支持')
- print('当前显卡的显存使用率:',torch.cuda.memory_allocated(0)/torch.cuda.get_device_properties(0).total_memory*100,'%')
点击文件、设置
找到python解释器,添加新的解释器
找到conda环境、使用现有环境,找到你前面配置的yolov10(环境名称)
点击应用
(以yolov9为例,原理都一样,只是把yolov9改成yolov10,如果看不懂可以留言我再修改)
最终结构图
在yolo9-main文件夹中创建datasets(数据文件夹),fish(你要训练的数据),Annotations(json文件),images(原图),lables(txt文件)ImageSets(数据集分组),效果如下:
在datasets(数据文件夹)创建xmltotxt.py用于将xml转化为txt文件,复制粘贴即可,需修改转化的类别名称,源文件地址和转化后文件地址(最好使用绝对路径)
- import xml.etree.ElementTree as ET
- import pickle
- import os
- from os import listdir, getcwd
- from os.path import join
-
-
- def convert(size, box):
- # size=(width, height) b=(xmin, xmax, ymin, ymax)
- # x_center = (xmax+xmin)/2 y_center = (ymax+ymin)/2
- # x = x_center / width y = y_center / height
- # w = (xmax-xmin) / width h = (ymax-ymin) / height
-
- x_center = (box[0] + box[1]) / 2.0
- y_center = (box[2] + box[3]) / 2.0
- x = x_center / size[0]
- y = y_center / size[1]
-
- w = (box[1] - box[0]) / size[0]
- h = (box[3] - box[2]) / size[1]
-
- # print(x, y, w, h)
- return (x, y, w, h)
-
-
- def convert_annotation(xml_files_path, save_txt_files_path, classes):
- xml_files = os.listdir(xml_files_path)
- # print(xml_files)
- for xml_name in xml_files:
- # print(xml_name)
- xml_file = os.path.join(xml_files_path, xml_name)
- out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
- out_txt_f = open(out_txt_path, 'w')
- tree = ET.parse(xml_file)
- root = tree.getroot()
- size = root.find('size')
- w = int(size.find('width').text)
- h = int(size.find('height').text)
-
- for obj in root.iter('object'):
- difficult = obj.find('difficult').text
- cls = obj.find('name').text
- if cls not in classes or int(difficult) == 1:
- continue
- cls_id = classes.index(cls)
- xmlbox = obj.find('bndbox')
- b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
- float(xmlbox.find('ymax').text))
- # b=(xmin, xmax, ymin, ymax)
- # print(w, h, b)
- bb = convert((w, h), b)
- out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
-
-
- if __name__ == "__main__":
- # 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件
- # 1、需要转化的类别
- classes = ['fish']
- # 2、voc格式的xml标签文件路径
- xml_files1 = r'D:\TestMain\yolov9-main\datasets\fish\Annotations'
- # 3、转化为yolo格式的txt标签文件存储路径
- save_txt_files1 = r'D:\TestMain\yolov9-main\datasets\fish\lables'
-
- convert_annotation(xml_files1, save_txt_files1, classes)
-
在datasets(数据文件夹)建立splitDataset.py,用于数据集分组[训练集:验证集:测试集(7:2:1)](可修改),需修改分组数据位置(即ImageSets位置),图片存放位置,txt文件存放位置(最好使用绝对路径)
- import os, shutil, random
- from tqdm import tqdm
-
- """
- 标注文件是yolo格式(txt文件)
- 训练集:验证集:测试集 (7:2:1)
- """
- def split_img(img_path, label_path, split_list):
- try:
- Data = 'D:/TestMain/yolov9-main/datasets/fish/ImageSets'
- # Data是你要将要创建的文件夹路径(路径一定是相对于你当前的这个脚本而言的)
- # os.mkdir(Data)
-
- train_img_dir = Data + '/images/train'
- val_img_dir = Data + '/images/val'
- test_img_dir = Data + '/images/test'
-
- train_label_dir = Data + '/labels/train'
- val_label_dir = Data + '/labels/val'
- test_label_dir = Data + '/labels/test'
-
- # 创建文件夹
- os.makedirs(train_img_dir)
- os.makedirs(train_label_dir)
- os.makedirs(val_img_dir)
- os.makedirs(val_label_dir)
- os.makedirs(test_img_dir)
- os.makedirs(test_label_dir)
-
- except:
- print('文件目录已存在')
-
- train, val, test = split_list
- all_img = os.listdir(img_path)
- all_img_path = [os.path.join(img_path, img) for img in all_img]
- # all_label = os.listdir(label_path)
- # all_label_path = [os.path.join(label_path, label) for label in all_label]
- train_img = random.sample(all_img_path, int(train * len(all_img_path)))
- train_img_copy = [os.path.join(train_img_dir, img.split('\\')[-1]) for img in train_img]
- train_label = [toLabelPath(img, label_path) for img in train_img]
- train_label_copy = [os.path.join(train_label_dir, label.split('\\')[-1]) for label in train_label]
- for i in tqdm(range(len(train_img)), desc='train ', ncols=80, unit='img'):
- _copy(train_img[i], train_img_dir)
- _copy(train_label[i], train_label_dir)
- all_img_path.remove(train_img[i])
- val_img = random.sample(all_img_path, int(val / (val + test) * len(all_img_path)))
- val_label = [toLabelPath(img, label_path) for img in val_img]
- for i in tqdm(range(len(val_img)), desc='val ', ncols=80, unit='img'):
- _copy(val_img[i], val_img_dir)
- _copy(val_label[i], val_label_dir)
- all_img_path.remove(val_img[i])
- test_img = all_img_path
- test_label = [toLabelPath(img, label_path) for img in test_img]
- for i in tqdm(range(len(test_img)), desc='test ', ncols=80, unit='img'):
- _copy(test_img[i], test_img_dir)
- _copy(test_label[i], test_label_dir)
-
-
- def _copy(from_path, to_path):
- shutil.copy(from_path, to_path)
-
-
- def toLabelPath(img_path, label_path):
- img = img_path.split('\\')[-1]
- label = img.split('.jpg')[0] + '.txt'
- return os.path.join(label_path, label)
-
-
- if __name__ == '__main__':
- img_path = 'D:\TestMain\yolov9-main\datasets\\fish\images' # 你的图片存放的路径(路径一定是相对于你当前的这个脚本文件而言的)
- label_path = 'D:\TestMain\yolov9-main\datasets\\fish\lables' # 你的txt文件存放的路径(路径一定是相对于你当前的这个脚本文件而言的)
- split_list = [0.7, 0.2, 0.1] # 数据集划分比例[train:val:test]
- split_img(img_path, label_path, split_list)
分组完成
在data文件夹中创建data.yaml文件,需要改train,val,test文件对应的路径(最好使用绝对路径)
- #path: D:/TestMain/yolov9-main/datasets/fish # dataset root dir
- train: D:\TestMain\yolov9-main\datasets\fish1\ImageSets\images\train # train images (relative to 'path') 118287 images
- val: D:\TestMain\yolov9-main\datasets\fish1\ImageSets\images\val # val images (relative to 'path') 5000 images
- test: D:\TestMain\yolov9-main\datasets\fish1\ImageSets\images\test # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
-
-
- # Classes
- names:
- 0: fish
- #放你数据集类型对应的类别,多个就0,1,2,3往后排
-
-
- # stuff names
- stuff_names: [
- 'fish',
- # other
- 'other',
- # unlabeled
- 'unlabeled'
- ]
-
-
- # Download script/URL (optional)
- download: |
- from utils.general import download, Path
-
-
- # Download labels
- #segments = True # segment or box labels
- #dir = Path(yaml['path']) # dataset root dir
- #url = 'https://github.com/WongKinYiu/yolov7/releases/download/v0.1/'
- #urls = [url + ('coco2017labels-segments.zip' if segments else 'coco2017labels.zip')] # labels
- #download(urls, dir=dir.parent)
-
- # Download data
- #urls = ['http://images.cocodataset.org/zips/train2017.zip', # 19G, 118k images
- # 'http://images.cocodataset.org/zips/val2017.zip', # 1G, 5k images
- # 'http://images.cocodataset.org/zips/test2017.zip'] # 7G, 41k images (optional)
- #download(urls, dir=dir / 'images', threads=3)
训练有很多种训练方式,我挑选的是我认为最为简单的一种,即修改default.yaml文件,然后在终端调用
default.yaml文件在yolov10/ultralytics/cfg文件中
需修改(最好为绝对路径,多仔细看看,容易出错)
模型文件model(yolov10n.yaml(模型文件)位置)
数据文件(训练图片)data(data.yaml文件所在位置)
训练轮次epochs(基本为300)
训练所放图片个数batch(4/8/16,看自己电脑量力而行)
训练存储地址和名称name(可不改)
使用GPU训练device:0(重点)
预训练权重pretrained(yolov10n.pt(权重文件,要于上面对应,就比如你用yolo10n训练你就必须要yolov10n.pt来作为你的预训练权重)位置,无可以不填)
点击终端,输入神秘代码:
yolo cfg=ultralytics/cfg/default.yaml
新建一个test.py,复制粘贴,需改.pt文件和预测集位置
.pt文件改你训练出的,
- import os
- from ultralytics import YOLO
-
-
- def load_model(model_path):
- model = YOLO(model_path)
- print('查看当前模型:', model)
- return model
-
-
- if __name__ == '__main__':
- imgs_path = r'TestMain\ultralytics-main\datasets\fish1\ImageSets\images\val' # TODO 验证集目录 要求图像数量 >= 200
- model = load_model(r'yolov10-main\runs\detect\train2\weights\best.pt' ) # TODO 模型路径
- re_num = 20 # TODO 预热图像张数
- detect_count = 100 # TODO 推理图像张数
- images = os.listdir(imgs_path)
- count = 0
- times = []
- for item in images:
- if count < re_num:
- model(imgs_path + os.sep + item)
- elif count < re_num + detect_count:
- results = model(imgs_path + os.sep + item)
- times.append(results[0].speed)
- else:
- break
- count += 1
- # main(opt)
- time_sum = 0.
- for i in times:
- time_sum += sum(i.values())
- one_img_time = time_sum / detect_count
- FPS = 1000 / one_img_time
- print(f'FPS: {FPS}')
-
大功告成,觉得好的就点点赞,点点收藏,如有什么错误或者建议麻烦指出(字码错了也可以说,毕竟经常这样),谢谢
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。