当前位置:   article > 正文

YOLO5模型训练过程_mac训练yolov5

mac训练yolov5

1.环境配置

我采用的是Anaconda+Pycharm的配置,python=3.8。

Anaconda安装自己百度

创建conda环境:

conda create --name 改成你的环境名称 python=3.8

2.下载Yolov5

github地址

https://github.com/ultralytics/yolov5

需要用到的权重文件

github:

https://github.com/ultralytics/yolov5/releases/tag/v6.0

下载yolov5s.pt文件

权重文件下载放到Yolov5根目录

3.安装依赖库

conda创建环境

conda create -n goods python=3.8

使用conda进入你创建的环境

activate 你的环境

linux添加环境变量

export PATH=$PATH:/root/anaconda3/bin

linux使用,如果你使用的是较早版本的Conda(如Conda 4.6之前的版本)

source activate 你的环境

进入YOLO5根目录,安装需要的库

pip install -r requirements.txt

4.测试:detect.py文件

运行detect.py文件,若没有问题在runs/detect/exp目录会得到以下图片

五、训练文件修改

1、修改train.py

修改goods.yaml文件

goods.yaml文件参数

path训练集参数在项目中的绝对路径

train训练集文件地址

val测试集文件地址

names你创建的标签列表(如何创建标签查看第六步)

六、制作自己的数据集之制作标签

常用的制作标签软件labelme、labelImg

我使用的是labelImg

安装labelImg

pip install labelImg

启动labelImg

labelImg

然后打开图片框选要识别的物体 - 输入标签保存即可

训练的图片放到datasets/goods/images/train里面

labelImg保存的txt文件放到datasets/goods/labels/train里面

注意:需要修改这个为YOLO

注意:训练图片名称和标签名称必须是一样的

如果是json文件需要转换成txt文件

  1. import json
  2. import os
  3. name2id = {'nonFuShanQuan':0}#标签名称
  4. def convert(img_size, box):
  5. dw = 1. / (img_size[0])
  6. dh = 1. / (img_size[1])
  7. x = (box[0] + box[2]) / 2.0 - 1
  8. y = (box[1] + box[3]) / 2.0 - 1
  9. w = box[2] - box[0]
  10. h = box[3] - box[1]
  11. x = x * dw
  12. w = w * dw
  13. y = y * dh
  14. h = h * dh
  15. return (x, y, w, h)
  16. def decode_json(json_floder_path, json_name):
  17. txt_name = 'D:\\daima\\pythonDome\\goods\\' + json_name[0:-5] + '.txt'
  18. #存放txt的绝对路径
  19. txt_file = open(txt_name, 'w')
  20. json_path = os.path.join(json_floder_path, json_name)
  21. data = json.load(open(json_path, 'r', encoding='gb2312',errors='ignore'))
  22. img_w = data['imageWidth']
  23. img_h = data['imageHeight']
  24. for i in data['shapes']:
  25. label_name = i['label']
  26. if (i['shape_type'] == 'rectangle'):
  27. x1 = int(i['points'][0][0])
  28. y1 = int(i['points'][0][1])
  29. x2 = int(i['points'][1][0])
  30. y2 = int(i['points'][1][1])
  31. bb = (x1, y1, x2, y2)
  32. bbox = convert((img_w, img_h), bb)
  33. txt_file.write(str(name2id[label_name]) + " " + " ".join([str(a) for a in bbox]) + '\n')
  34. if __name__ == "__main__":
  35. json_floder_path = 'D:\\daima\\pythonDome\\goods\\'
  36. #存放json的文件夹的绝对路径
  37. json_names = os.listdir(json_floder_path)
  38. for json_name in json_names:
  39. decode_json(json_floder_path, json_name)

如果是xml文件需要转成txt文件

  1. import xml.etree.ElementTree as ET
  2. import pickle
  3. import os
  4. from os import listdir, getcwd
  5. from os.path import join
  6. def convert(size, box):
  7. # size=(width, height) b=(xmin, xmax, ymin, ymax)
  8. # x_center = (xmax+xmin)/2 y_center = (ymax+ymin)/2
  9. # x = x_center / width y = y_center / height
  10. # w = (xmax-xmin) / width h = (ymax-ymin) / height
  11. x_center = (box[0] + box[1]) / 2.0
  12. y_center = (box[2] + box[3]) / 2.0
  13. x = x_center / size[0]
  14. y = y_center / size[1]
  15. w = (box[1] - box[0]) / size[0]
  16. h = (box[3] - box[2]) / size[1]
  17. # print(x, y, w, h)
  18. return (x, y, w, h)
  19. def convert_annotation(xml_files_path, save_txt_files_path, classes):
  20. xml_files = os.listdir(xml_files_path)
  21. # print(xml_files)
  22. for xml_name in xml_files:
  23. # print(xml_name)
  24. xml_file = os.path.join(xml_files_path, xml_name)
  25. out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
  26. out_txt_f = open(out_txt_path, 'w')
  27. tree = ET.parse(xml_file)
  28. root = tree.getroot()
  29. size = root.find('size')
  30. w = int(size.find('width').text)
  31. h = int(size.find('height').text)
  32. for obj in root.iter('object'):
  33. difficult = obj.find('difficult').text
  34. cls = obj.find('name').text
  35. # if cls not in classes or int(difficult) == 1:
  36. # continue
  37. cls_id = classes.index(cls)
  38. xmlbox = obj.find('bndbox')
  39. b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
  40. float(xmlbox.find('ymax').text))
  41. # b=(xmin, xmax, ymin, ymax)
  42. # print(w, h, b)
  43. bb = convert((w, h), b)
  44. out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
  45. if __name__ == "__main__":
  46. # 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件
  47. # 1、需要转化的类别
  48. classes = ['nonFuShanQuan']
  49. # 2、voc格式的xml标签文件路径
  50. xml_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_xml'
  51. # xml_files1 = r'C:/Users/GuoQiang/Desktop/数据集/标签1'
  52. # 3、转化为yolo格式的txt标签文件存储路径
  53. save_txt_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_txt'
  54. convert_annotation(xml_files1, save_txt_files1, classes)

七、开始训练train.py

报错:COMET_GIT_DIRECTORY if your Git Repository is elsewhere

解决:卸载掉comet_ml

pip uninstall comet_ml

报错(好像解决上面的就行了):UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 234: illegal multibyte sequence

训练成功

八、识别检测detect.py

搜索parse_opt方法

--weights:训练好的权重文件(runs/train/exp/weights中),best.pt为最好的一次,last.pt为最后一次

--source:要检测的文件,可以是图片文件夹、本地图片视频、线上图片视频、摄像头。填0时为打开电脑默认摄像头

--data:数据集参数文件

--imgsz:图片大小

--conf-thres:置信度,当检测出来的置信度大于该数值时才能显示出被检测到

主要修改这三个

结果在runs/detect/exp中

部署到安卓系统

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/%E4%B8%8D%E6%AD%A3%E7%BB%8F/article/detail/83636
推荐阅读
相关标签
  

闽ICP备14008679号