当前位置:   article > 正文

YOLO在mac上的安装和使用_mac yolov5

mac yolov5

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


提示:以下是本篇文章正文内容,下面案例可供参考

一、YOLO的安装

1.在GitHub上下载源码:

https://github.com/ultralytics/yolov5/tree/v6.1
在这里插入图片描述

2.配置环境:

1.将下载好的压缩包保存至一个没有中文的路径下,点击打开PyCharm,点击open按钮,在路径中找到刚刚的源码保存路径,即可在PyCharm中打开项目。
在这里插入图片描述
⚠此时可能会跳出一个框,让你配置环境,先直接关掉。(我们后面再配置环境)
2.打开Anaconda,在左侧选择environments,点击下方create,我创建了一个新环境,命名为yolo5_test。(建议选择python3.9与yolov5适配)
在这里插入图片描述
3.打开Pycharm设置Preference
在这里插入图片描述
新建Python解释器的环境
在这里插入图片描述
4.系列库的安装
(1).打开终端,输入命令进入创建的Anaconda环境

conda activate yolov5_test 
  • 1

(yolov5_test是我创建的环境名,需换成你的)

(2).配置torch和torchvision

pip install torch==1.8.1 torchvision==0.9.1 torchaudio==0.8.1
  • 1

(输入后会自动提示适合你的版本,根据提示更改版本号安装即可)

(3).对照requirements.txt 配置其他所需安装包

pip install -r requirements.txt
  • 1

这里我失败了,于是分别安装

pip install numpy
pip install opencv-python
pip install matplotlib
pip install pillow
pip install PyYAM
pip install scipy
pip install tqdm
pip install requests
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

5.运行程序
基本测试需要运行detect.py
(这里我运行时出现了bug,发现还有一些包未安装,根据提示又安装了缺少的包)
最终在pycharm中运行结果如下
在这里插入图片描述
打开exp查看结果
在这里插入图片描述

二、用YOLO测试视频

1.测试下载视频

将视频放入yolov5-6.1/data/images/中,在pycharm中运行detect.py在这里插入图片描述
打开yolov5-6.1/runs/detect/exp查看结果代码如下(示例):
在这里插入图片描述

2.用电脑自带摄像头实时监测

在detect文件最后找到此行代码
在这里插入图片描述
改为:

cd_argument('--source', type=str, default='0', help='source')  # file/folder, 0 for webcam
  • 1

同样打开yolov5-6.1/runs/detect/exp查看结果

三、训练自己的数据集

1.创建环境
创建一个新的anaconda环境

conda create -n tf python=3.9.18
  • 1

(改成自己的python版本)
切换到tf环境(重新打开终端时要记得切到这个环境)

conda activate tf
  • 1

(前面有(tf)则是转换成功)
2.安装macos版本的TensorFlow

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ tensorflow==2.6
  • 1

3.pyqt5安装
法一

pip install pyqt5
  • 1

(这里我失败了)
法二 安装homebrew

/usr/bin/ruby-e"$(curl-fsSLhttps://raw.githubusercontent.com/Homebrew/install/master/install)"
  • 1

通过homebrew安装pyqt5

brew install pyqt5
  • 1

4.安装torch和torchvision

pip install torch==1.7.1 torchvision==0.8.2 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/torch
  • 1

5.安装labelimg
法一

pip install labelimg
  • 1

这里我失败了
法二 进入labelimg的github地址https://github.com/HumanSignal/labelImg
在这里插入图片描述
打开终端输入cd 将labeling-master文件夹拖入

brew install qt
brew install libxml2
conda install lxml
make qt5py3
python labelImg.py
  • 1
  • 2
  • 3
  • 4
  • 5

就可以用labelimg标注文件啦
在这里插入图片描述
在yolov5目录下新建一个名为VOCData的文件夹,在VOCData文件夹下创建 Annotations 和 images 文件夹。
images文件夹放要训练的图片
打开目录为images文件夹
更改存放目录为Annotions文件夹
标记图片快捷键:w:标记   a:上一张图片   d:下一张图片
标注的时候尽可能贴近物体轮廓

6.划分数据集以及配置文件修改
(1)划分训练集、验证集、测试集
在终端中打开images文件夹(根据自己路径找)

cd /Users/zhuoxiaohua/Documents/yolov5-6.1/VOCData/images
Is -a
rm .DS_Store
  • 1
  • 2
  • 3

在macos下,文件夹内会生成.Ds_store隐藏文件要先删除

在VOCData目录下创建程序 split_train_val.py 并运行以下代码(代码可以不做任何修改)

#coding:utf-8
 
import os
import random
import argparse
 
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()
 
trainval_percent = 1.0  # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.9     # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
 
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
 
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
 
for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)
 
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()            
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48

运行结束后会在生成一个名为 ImageSets 的文件夹
[说明]:在第14,15行代码中
训练集是用来训练模型的,通过尝试不同的方法和思路使用训练集来训练不同的模型;
验证集使用交叉验证来挑选最优的模型,通过不断的迭代来改善模型在验证集上的性能;
测试集用来评估模型的性能。

(2)XML格式转yolo_txt格式
在VOCData目录下创建程序 xml_to_yolo.py 并运行以下代码
注意:将classes改为自己标注时设置的类名(我这里叫"code"),将各个绝对路径修改为自己的

#-*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ["code"]  # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image):
    in_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/Annotations/%s.xml' % image, encoding='utf-8')
    out_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/%s.txt' % image, 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/'):
        os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/')
    image_ids = open(
        '/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/ImageSets/Main/%s.txt' % image_set).read().strip().split()

    if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/'):
        os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/')

    list_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/%s.txt' % image_set, 'w')
    for image_id in image_ids:
        list_file.write('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/images/%s.jpeg\n' % image_id)
        convert_annotation(image_id)

    list_file.close()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70

运行后会生成dataSet_path 和 labels 文件夹。dataSet_path下会有三个数据集的txt文件,labels下存放各个图像的标注文件。

(3)配置文件
在 yolov5 的 data 文件夹下创建一个名为 myvoc.yaml,模板如下,改成自己的路径,根据自己实际情况填写:
(【

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/1012762
推荐阅读
相关标签