当前位置:   article > 正文

基于YOLO_v8的车牌号码识别_基于yolov8的车牌识别

基于yolov8的车牌识别

1. 数据集

我使用的数据集是CCPD: Chinese City Parking Dataset

子数据集

ccpd_base:包含1000张不同角度、不同距离、不同照明、不同场景的图片。

ccpd_blur:包含1000张图片,其中图片模糊程度较大。

ccpd_challenge:包含1000张图片,这是LPDR算法最难的基准。

ccpd_db:包含1000张LP区域照明较暗或极亮的图片。

ccpd_fn:包含1000张从LP到拍摄地点的距离比较远或很近的图片。

ccpd_np:包含1000张图片,其中图片中的汽车没有LP。

ccpd_rotate:包含1000张图片,具有很大的水平倾斜度。

ccpd_tilt:包含1000张图片,水平倾斜度和垂直倾斜度都比较大。

ccpd_weather:包含1000张雨天拍摄的图片。

图片的标注性命名

示例图像的名称是“025-95_113-154&383_386&473-386&473_177&454_154&383_363&402-0_0_22_27_27_33_16-37-15.jpg”。每个名字可以被"-"符号分成7个字段。这些字段解释如下。

面积:车牌面积与整个图片面积的比例(025)

倾斜度:水平倾斜度(95)和垂直倾斜度(113)

边界框坐标:左上顶点的坐标(154&383)和右下顶点的坐标(386&473)

四个顶点的位置:LP的四个顶点在整个图像中的确切(x, y)坐标,这些坐标从右下角的顶点开始(386&473_177&454_154&383_363&402)

车牌号码:在CCPD中,每张图像只有一个LP。每个LP数字由一个汉字、一个字母和五个字母或数字组成(0_0_22_27_27_33_16),数字分别表示车牌号码在数组中的位置。

亮度:车牌区域的亮度(37)

模糊度:车牌区域的模糊度(15)

由于对模型还在了解阶段,所以我只取CCPD: Chinese City Parking Dataset的一部分作为数据集

代码来源

https://www.kaggle.com/code/harits/chinese-license-plate-recognition-yolov8-cnocr

系统

Windows11

2. Praperation

导入模块

                            代码                           

  1. #导入了warnings模块,并使用filterwarnings()函数来忽略警告信息
  2. import warnings
  3. warnings.filterwarnings("ignore")
  4. #这些语句导入了一些操作系统、文件操作、时间处理、随机数生成、图像处理、数组操作、数据处理、文件匹配、进度条显示和正则表达式处理相关的库和模块
  5. import os
  6. import gc
  7. import shutil
  8. import time
  9. import random
  10. import cv2
  11. import numpy as np
  12. import pandas as pd
  13. import glob
  14. from tqdm import tqdm
  15. tqdm.pandas()
  16. import re
  17. #这些语句导入了一些数据可视化相关的库和模块,包括matplotlib、plotly等。
  18. import matplotlib
  19. import matplotlib.pyplot as plt
  20. import matplotlib.image as mpimg
  21. import plotly
  22. import plotly.graph_objects as go
  23. import plotly.express as px
  24. from plotly.subplots import make_subplots
  25. from IPython.display import Image, display
  26. #这行代码导入了PyTorch深度学习框架和Numba的CUDA模块,用于进行深度学习和GPU加速计算。
  27. import torch
  28. from numba import cuda

表示车牌号的数组和基础路径设置

  1. #定义车牌号码表示数组
  2. provinces = ["皖", "沪", "津", "渝", "冀", "晋", "蒙", "辽", "吉", "黑", "苏", "浙", "京", "闽", "赣", "鲁", "豫", "鄂", "湘", "粤", "桂", "琼", "川", "贵", "云", "藏", "陕", "甘", "青", "宁", "新", "警", "学", "O"]
  3. alphabets = ['A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W',
  4. 'X', 'Y', 'Z', 'O']
  5. ads = ['A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X',
  6. 'Y', 'Z', '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'O']
  7. #训练集子集数组
  8. list_sub = ["ccpd_base", "ccpd_fn", "ccpd_db", "ccpd_rotate", "ccpd_weather", "ccpd_blur"]
  9. #训练集基础路径设置
  10. BASE_PATH = "CCPD2019"

 这里的BASE_PATH要根据自己的需求修改

3. Data Exploration

数据探索:在数据分析过程中,对数据进行初步了解和分析的过程,通常包括数据清洗、数据可视化和统计分析等步骤。

这里我只是对数据进行简单的读取和了解。

3.1. Sample Images读取样本数据

                            代码                           

  1. # 创建子图
  2. fig, axs = plt.subplots(6, 6, figsize=(13, 18))
  3. # 遍历子数据集列表(序号和名称)
  4. for i, sub in enumerate(list_sub):
  5. axs[i, 0].text(0.5, 0.5, sub, ha='center', va='center', fontsize=12)
  6. axs[i, 0].axis('off')
  7. # 构建子数据集路径
  8. sub_path = os.path.join(BASE_PATH, sub)
  9. # 获取子数据集中的前五个文件名
  10. sub_files = os.listdir(sub_path)[:5]
  11. for j in range(5):
  12. file_name = os.path.join(sub_path, sub_files[j])
  13. image = cv2.imread(file_name)
  14. image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
  15. axs[i, j+1].imshow(image)
  16. axs[i, j+1].axis("off")
  17. # Title
  18. plt.suptitle("License Plate Based on Sub-Datasets", x=0.55, y=0.93)
  19. # Show
  20. plt.show()

                            运行结果                           

3.2. Image Description 描述ccpd_base的图片

                            代码                          

  1. #将基础路径(BASE_PATH)"CCPD2019"和"ccpd_base"连接起来,生成一个新的路径
  2. ccpd_base_path = os.path.join(BASE_PATH, "ccpd_base")
  3. #列出了"ccpd_base"路径下的所有文件
  4. ccpd_base_files = os.listdir(ccpd_base_path)
  5. #遍历"ccpd_base"路径下的前三个文件
  6. for file in ccpd_base_files[:3]:
  7. #生成每个文件的完整路径
  8. file_name = os.path.join(ccpd_base_path, file)
  9. #从文件名中提取出文件名的主体部分,去掉了文件扩展名
  10. file_splitting = file_name.split("\\")[-1][:-4]
  11. #打印文件名
  12. print("文件名:", file_splitting)
  13. #将文件名主体部分按照"-"分割,得到一系列的信息
  14. file_splitting = file_splitting.split("-")
  15. #区域比例
  16. area_ratio = file_splitting[0]
  17. print("区域比例:", area_ratio)
  18. #倾斜角度
  19. tilt_degrees = file_splitting[1]
  20. hor_tilt_degrees = tilt_degrees.split("_")[0]
  21. ver_tilt_degrees = tilt_degrees.split("_")[1]
  22. print("倾斜角度")
  23. #水平倾斜度
  24. print("- 水平倾斜度:", hor_tilt_degrees)
  25. #垂直倾斜度
  26. print("- 垂直倾斜度:", ver_tilt_degrees)
  27. #边界框
  28. bounding_box = file_splitting[2]
  29. left_up_bbox = bounding_box.split("_")[0]
  30. right_bot_bbox = bounding_box.split("_")[1]
  31. print("边界框(一个)")
  32. print("- 左上:", left_up_bbox)
  33. print("- 右下:", right_bot_bbox)
  34. #精确顶点
  35. vertices = file_splitting[3]
  36. right_bot_vtc = vertices.split("_")[0]
  37. left_bot_vtc = vertices.split("_")[1]
  38. left_up_vtc = vertices.split("_")[2]
  39. right_up_vtc = vertices.split("_")[3]
  40. print("精确顶点")
  41. print("- 右下:", right_bot_vtc)
  42. print("- 左下:", left_bot_vtc)
  43. print("- 左上:", left_up_vtc)
  44. print("- 右上:", right_up_vtc)
  45. #车牌号码
  46. lcn = file_splitting[4]
  47. chi_let = provinces[int(lcn.split("_")[0])]
  48. alp_let = alphabets[int(lcn.split("_")[1])]
  49. alp_num_let = lcn.split("_")[2:]
  50. alp_num_let = "".join([ads[int(char)] for char in alp_num_let])
  51. all_let = chi_let + alp_let + " " + alp_num_let
  52. print("车牌号码:", all_let)
  53. #亮度
  54. brightness = file_splitting[5]
  55. print("亮度:", brightness)
  56. #模糊度
  57. blurriness = file_splitting[6]
  58. print("模糊度:", blurriness)
  59. #使用OpenCV库读取图像文件
  60. img = cv2.imread(file_name)
  61. #将图像从BGR颜色空间转换为RGB颜色空间
  62. img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  63. #使用matplotlib库显示图像
  64. plt.imshow(img)
  65. plt.show()

                             运行结果                           

文件名: 00205459770115-90_85-352&516_448&547-444&547_368&549_364&517_440&515-0_0_22_10_26_29_24-128-7
区域比例: 00205459770115
倾斜角度
-  水平倾斜度: 90
-  垂直倾斜度: 85
边界框(一个)
-  左上: 352&516
-  右下: 448&547
精确顶点
-  右下: 444&547
-  左下: 368&549
-  左上: 364&517
-  右上: 440&515
车牌号码: 皖A YL250
亮度: 128
模糊度: 7

文件名: 00221264367816-91_91-283&519_381&553-375&551_280&552_285&514_380&513-0_0_7_26_17_33_29-95-9
区域比例: 00221264367816
倾斜角度
-  水平倾斜度: 91
-  垂直倾斜度: 91
边界框(一个)
-  左上: 283&519
-  右下: 381&553
精确顶点
-  右下: 375&551
-  左下: 280&552
-  左上: 285&514
-  右上: 380&513
车牌号码: 皖A H2T95
亮度: 95
模糊度: 9

文件名: 00223060344828-90_89-441&517_538&546-530&552_447&548_447&512_530&516-0_0_13_16_33_30_33-148-14
区域比例: 00223060344828
倾斜角度
-  水平倾斜度: 90
-  垂直倾斜度: 89
边界框(一个)
-  左上: 441&517
-  右下: 538&546
精确顶点
-  右下: 530&552
-  左下: 447&548
-  左上: 447&512
-  右上: 530&516
车牌号码: 皖A PS969
亮度: 148
模糊度: 14

3.3. Sample Bounding Box and Exact Vertices采样边界框和精确的顶点

                            代码                           

  1. # 创建子图
  2. fig, axs = plt.subplots(3, 4, figsize=(13, 15))
  3. # 遍历文件列表,绘制车牌图像、边界框和精确顶点
  4. for i, file in enumerate(ccpd_base_files[2:8]):
  5. # 获取文件名
  6. file_name = os.path.join(ccpd_base_path, file)
  7. file_splitting = file_name.split("\\")[-1][:-4]
  8. file_splitting = file_splitting.split("-")
  9. # 提取车牌号码信息
  10. lcn = file_splitting[4]
  11. chi_let = provinces[int(lcn.split("_")[0])]
  12. alp_let = alphabets[int(lcn.split("_")[1])]
  13. alp_num_let = lcn.split("_")[2:]
  14. alp_num_let = "".join([ads[int(char)] for char in alp_num_let])
  15. all_let = chi_let + alp_let + alp_num_let
  16. # 提取边界框信息
  17. bounding_box = file_splitting[2]
  18. lu_bbox = bounding_box.split("_")[0]
  19. x1, y1 = list(map(int, lu_bbox.split("&")))
  20. rb_bbox = bounding_box.split("_")[1]
  21. x2, y2 = list(map(int, rb_bbox.split("&")))
  22. # 读取图像并绘制边界框
  23. bbox_img = cv2.imread(file_name)
  24. bbox_img = cv2.cvtColor(bbox_img, cv2.COLOR_BGR2RGB)
  25. cv2.rectangle(bbox_img, (x1, y1), (x2, y2), (30, 240, 100), 10)
  26. # 在子图上显示图像
  27. axs[i//2, (i*2)%4].imshow(bbox_img)
  28. axs[i//2, (i*2)%4].set_title("Bounding Box", fontsize=8)
  29. axs[i//2, (i*2)%4].axis("off")
  30. axs[i//2, (i*2)%4]
  31. # 提取精确顶点信息
  32. vertices = file_splitting[3]
  33. vertices_split = vertices.split("_")
  34. # 读取图像并绘制精确顶点
  35. exver_img = cv2.imread(file_name)
  36. exver_img = cv2.cvtColor(exver_img, cv2.COLOR_BGR2RGB)
  37. for j in range(4):
  38. x1, y1 = list(map(int, vertices_split[j].split("&")))
  39. x2, y2 = list(map(int, vertices_split[(j+1)%4].split("&")))
  40. cv2.line(exver_img, (x1, y1), (x2, y2), (30, 240, 100), thickness=10)
  41. # 在子图上显示图像
  42. axs[i//2, (i*2+1)%4].imshow(exver_img)
  43. axs[i//2, (i*2+1)%4].set_title("Exact Vertices", fontsize=8)
  44. axs[i//2, (i*2+1)%4].axis("off")
  45. axs[i//2, (i*2+1)%4]
  46. # 设置标题
  47. plt.suptitle("Sample Bounding Box and LPR Images", x=0.55, y=0.93)
  48. # 显示图像
  49. plt.show()

                            运行结果                            

4. Plate Detection - YOLOv8

运用YOLO_v8对车牌进行目标检测

4.1. Data Preparation  

4.1.1. Create Metadata创建元数据

                            代码                           

  1. #Create Metadata
  2. #从车牌号码字符串中提取出省份简称、字母简称和数字字母组合
  3. def extract_plate_number(plate_number):
  4. # 提取省份简称
  5. chi_let = provinces[int(plate_number.split("_")[0])]
  6. # 提取字母简称
  7. alp_let = alphabets[int(plate_number.split("_")[1])]
  8. # 提取数字字母组合
  9. alp_num_let = plate_number.split("_")[2:]
  10. # 将数字字母组合转换为字符串
  11. alp_num_let = "".join([ads[int(char)] for char in alp_num_let])
  12. # 拼接省份简称、字母简称和数字字母组合
  13. all_let = chi_let + alp_let + alp_num_let
  14. return all_let
  15. #创建一个空的DataFrame
  16. df_metadata = pd.DataFrame()
  17. #遍历每个子数据集,获取子文件夹路径
  18. for sub in list_sub:
  19. sub_path = os.path.join(BASE_PATH, sub, "*")
  20. sub_files = glob.glob(sub_path)
  21. # 只取前100个文件
  22. sub_files = sub_files[:100]
  23. #将子文件夹路径添加到df_metadata中
  24. df_metadata = df_metadata._append(sub_files)
  25. # 重命名列名并重置索引
  26. df_metadata = df_metadata.rename(columns={0: "image_path"}).reset_index(drop=True)
  27. # 提取子文件夹名称、详细信息、边界框信息、车牌号码等信息,并添加到df_metadata中
  28. df_metadata["sub"] = df_metadata["image_path"].apply(lambda x: x.split("\\")[1])
  29. df_metadata["detail"] = df_metadata["image_path"].apply(lambda x: x.split("\\")[2])
  30. df_metadata["bbox"] = df_metadata["detail"].apply(lambda x: x.split("-")[2])
  31. df_metadata["x1_bbox"] = df_metadata["bbox"].apply(lambda x: int(x.split("_")[0].split("&")[0]))
  32. df_metadata["y1_bbox"] = df_metadata["bbox"].apply(lambda x: int(x.split("_")[0].split("&")[1]))
  33. df_metadata["x2_bbox"] = df_metadata["bbox"].apply(lambda x: int(x.split("_")[1].split("&")[0]))
  34. df_metadata["y2_bbox"] = df_metadata["bbox"].apply(lambda x: int(x.split("_")[1].split("&")[1]))
  35. df_metadata["plate_number"] = df_metadata["detail"].apply(lambda x: x.split("-")[4])
  36. df_metadata["plate_number"] = df_metadata["plate_number"].apply(lambda x: extract_plate_number(x))
  37. # 删除不需要的列
  38. df_metadata = df_metadata.drop(["detail", "bbox"], axis=1)
  39. df_metadata

 这两行代码中的索引号要根据自己路径的实际情况修改

  1. df_metadata["sub"] = df_metadata["image_path"].apply(lambda x: x.split("\\")[1])
  2. df_metadata["detail"] = df_metadata["image_path"].apply(lambda x: x.split("\\")[2])

                           运行结果                           

4.1.2. Create YOLOv8 Bounding Box Format 

                            代码                           

  1. df_metadata['xmid'] = (df_metadata['x1_bbox'] + df_metadata['x2_bbox']) / (2*720)
  2. df_metadata['ymid'] = (df_metadata['y1_bbox'] + df_metadata['y2_bbox']) / (2*1160)
  3. df_metadata['bb_width'] = (df_metadata['x2_bbox'] - df_metadata['x1_bbox']) / 720
  4. df_metadata['bb_height'] = (df_metadata['y2_bbox'] - df_metadata['y1_bbox']) / 1160
  5. df_metadata

                            运行结果                            

4.1.3. Data Splitting 

                            代码                           

  1. # Train : 5000 (ccpd_base), Val and Test : 50 for each sub (except ccpd_base)
  2. list_split = ["train"] * 270058
  3. for i in range(5):
  4. list_split.extend(["val"]*170)
  5. list_split.extend(["test"]*170)
  6. df_metadata["split"] = list_split
  7. df_metadata

                            运行结果                            

4.2. YOLOv8 Preparation 

                            代码                           

这段代码是用于克隆Ultralytics项目的GitHub仓库并安装ultralytics库的命令。

  1. ###这个命令用于克隆Ultralytics项目的GitHub仓库到本地
  2. ###https://github.com/ultralytics/ultralytics 是Ultralytics项目的GitHub仓库地址
  3. !git clone https://github.com/ultralytics/ultralytics
  4. ###这个命令用于安装名为ultralytics的Python库
  5. ###在克隆了Ultralytics项目的GitHub仓库后,可以通过这个命令安装项目中的Python库
  6. !pip install ultralytics

                            运行结果                            

fatal: destination path 'ultralytics' already exists and is not an empty directory.
Requirement already satisfied: ultralytics in d:\env\anaconda\lib\site-packages (8.2.10)
Requirement already satisfied: matplotlib>=3.3.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (3.8.0)
Requirement already satisfied: opencv-python>=4.6.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (4.9.0.80)
Requirement already satisfied: pillow>=7.1.2 in d:\env\anaconda\lib\site-packages (from ultralytics) (10.2.0)
Requirement already satisfied: pyyaml>=5.3.1 in d:\env\anaconda\lib\site-packages (from ultralytics) (6.0.1)
Requirement already satisfied: requests>=2.23.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (2.31.0)
Requirement already satisfied: scipy>=1.4.1 in d:\env\anaconda\lib\site-packages (from ultralytics) (1.11.4)
Requirement already satisfied: torch>=1.8.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (2.3.0)
Requirement already satisfied: torchvision>=0.9.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (0.18.0)
Requirement already satisfied: tqdm>=4.64.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (4.65.0)
Requirement already satisfied: psutil in d:\env\anaconda\lib\site-packages (from ultralytics) (5.9.0)
Requirement already satisfied: py-cpuinfo in d:\env\anaconda\lib\site-packages (from ultralytics) (9.0.0)
Requirement already satisfied: thop>=0.1.1 in d:\env\anaconda\lib\site-packages (from ultralytics) (0.1.1.post2209072238)
Requirement already satisfied: pandas>=1.1.4 in d:\env\anaconda\lib\site-packages (from ultralytics) (2.1.4)
Requirement already satisfied: seaborn>=0.11.0 in d:\env\anaconda\lib\site-packages (from ultralytics) (0.12.2)
Requirement already satisfied: contourpy>=1.0.1 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (1.2.0)
Requirement already satisfied: cycler>=0.10 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (0.11.0)
Requirement already satisfied: fonttools>=4.22.0 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (4.25.0)
Requirement already satisfied: kiwisolver>=1.0.1 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (1.4.4)
Requirement already satisfied: numpy<2,>=1.21 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (1.26.4)
Requirement already satisfied: packaging>=20.0 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (23.1)
Requirement already satisfied: pyparsing>=2.3.1 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (3.0.9)
Requirement already satisfied: python-dateutil>=2.7 in d:\env\anaconda\lib\site-packages (from matplotlib>=3.3.0->ultralytics) (2.8.2)
Requirement already satisfied: pytz>=2020.1 in d:\env\anaconda\lib\site-packages (from pandas>=1.1.4->ultralytics) (2023.3.post1)
Requirement already satisfied: tzdata>=2022.1 in d:\env\anaconda\lib\site-packages (from pandas>=1.1.4->ultralytics) (2023.3)
Requirement already satisfied: charset-normalizer<4,>=2 in d:\env\anaconda\lib\site-packages (from requests>=2.23.0->ultralytics) (2.0.4)
Requirement already satisfied: idna<4,>=2.5 in d:\env\anaconda\lib\site-packages (from requests>=2.23.0->ultralytics) (3.4)
Requirement already satisfied: urllib3<3,>=1.21.1 in d:\env\anaconda\lib\site-packages (from requests>=2.23.0->ultralytics) (2.0.7)
Requirement already satisfied: certifi>=2017.4.17 in d:\env\anaconda\lib\site-packages (from requests>=2.23.0->ultralytics) (2024.2.2)
Requirement already satisfied: filelock in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (3.13.1)
Requirement already satisfied: typing-extensions>=4.8.0 in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (4.9.0)
Requirement already satisfied: sympy in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (1.12)
Requirement already satisfied: networkx in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (3.1)
Requirement already satisfied: jinja2 in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (3.1.3)
Requirement already satisfied: fsspec in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (2023.10.0)
Requirement already satisfied: mkl<=2021.4.0,>=2021.1.1 in d:\env\anaconda\lib\site-packages (from torch>=1.8.0->ultralytics) (2021.4.0)
Requirement already satisfied: colorama in d:\env\anaconda\lib\site-packages (from tqdm>=4.64.0->ultralytics) (0.4.6)
Requirement already satisfied: intel-openmp==2021.* in d:\env\anaconda\lib\site-packages (from mkl<=2021.4.0,>=2021.1.1->torch>=1.8.0->ultralytics) (2021.4.0)
Requirement already satisfied: tbb==2021.* in d:\env\anaconda\lib\site-packages (from mkl<=2021.4.0,>=2021.1.1->torch>=1.8.0->ultralytics) (2021.12.0)
Requirement already satisfied: six>=1.5 in d:\env\anaconda\lib\site-packages (from python-dateutil>=2.7->matplotlib>=3.3.0->ultralytics) (1.16.0)
Requirement already satisfied: MarkupSafe>=2.0 in d:\env\anaconda\lib\site-packages (from jinja2->torch>=1.8.0->ultralytics) (2.1.3)
Requirement already satisfied: mpmath>=0.19 in d:\env\anaconda\lib\site-packages (from sympy->torch>=1.8.0->ultralytics) (1.3.0)

                            代码                           

这段代码是用于在YOLOv8中创建数据集文件夹的。它会创建四个文件夹。

  1. # Create Dataset Folder in YOLOv8
  2. ###主数据集文件夹,用于存放所有与数据集相关的文件和子文件夹
  3. !mkdir "ultralytics\\datasets"
  4. ###训练集文件夹,用于存放训练过程中使用的图片和标签文件
  5. !mkdir "ultralytics\\datasets\\train"
  6. ###验证集文件夹,用于存放验证过程中使用的图片和标签文件
  7. !mkdir "ultralytics\\datasets\\val"
  8. ###测试集文件夹,用于存放测试过程中使用的图片和标签文件
  9. !mkdir "ultralytics\\datasets\\test"

                            运行结果                            

因为之前已经运行过一次这个文件,所以显示已经存在。

子目录或文件 ultralytics\\datasets 已经存在。
子目录或文件 ultralytics\\datasets\\train 已经存在。
子目录或文件 ultralytics\\datasets\\val 已经存在。
子目录或文件 ultralytics\\datasets\\test 已经存在。

                          代码                           

这段代码的主要功能是将图像文件和对应的文本信息复制到YOLOv8数据集文件夹中。

首先根据传入的参数(train、val或test),筛选出对应的数据行,并重置索引。

然后遍历每一行数据,将图像文件复制到目标文件夹中,并生成包含标签信息的文本文件内容,将文本文件内容写入目标文本文件中。

最后分别处理训练集、验证集和测试集数据。

  1. # 定义一个函数,用于将图像和对应的文本信息复制到YOLOv8数据集文件夹中
  2. def image_and_text_yolo(split):
  3. # 根据传入的参数(train、val或test),筛选出对应的数据行,并重置索引
  4. df = df_metadata[df_metadata["split"]==split].reset_index(drop=True)
  5. # 拼接目标文件夹路径
  6. folder_path = os.path.join("ultralytics\\datasets", split)
  7. # 获取需要处理的数据值
  8. values = df[['image_path','xmid','ymid','bb_width','bb_height']].values
  9. # 遍历每一行数据
  10. for file_name, x, y, w, h in values:
  11. # 获取图像文件名
  12. image_name = os.path.split(file_name)[-1]
  13. # 获取文本文件名(去掉扩展名)
  14. txt_name = os.path.splitext(image_name)[0]
  15. # 拼接目标图像文件路径
  16. dst_image_path = os.path.join(folder_path, image_name)
  17. # 拼接目标文本文件路径
  18. dst_label_file = os.path.join(folder_path, txt_name+'.txt')
  19. # 将图像文件复制到目标文件夹中
  20. shutil.copy(file_name, dst_image_path)
  21. # 生成包含标签信息的文本文件内容
  22. label_txt = f'0 {x} {y} {w} {h}'
  23. # 将文本文件内容写入目标文本文件中
  24. with open(dst_label_file, mode='w') as f:
  25. f.write(label_txt)
  26. f.close()
  27. # 调用函数,处理训练集数据
  28. image_and_text_yolo("train")
  29. print("Train Dataset Created")
  30. # 调用函数,处理验证集数据
  31. image_and_text_yolo("val")
  32. print("Val Dataset Created")
  33. # 调用函数,处理测试集数据
  34. image_and_text_yolo("test")
  35. print("Test Dataset Created")

                            运行结果                            

Train Dataset Created
Val Dataset Created
Test Dataset Created

                          代码                           

我最开始的代码是这么写的

  1. ###这是一个Jupyter Notebook的魔法命令,用于将接下来的代码写入到指定的文件中
  2. ###这里是将代码写入到ultralytics\custom_dataset.yaml文件中
  3. %%writefile ultralytics\\custom_dataset.yaml
  4. ### 创建自定义数据集配置的
  5. ###训练集的路径
  6. train: ultralytics\\datasets\\train
  7. ###验证集的路径
  8. val: ultralytics\\datasets\\val
  9. ###测试集的路径
  10. test: ultralytics\\datasets\\test
  11. ###数据集中的类别数量:1,表示只有一个类别
  12. nc: 1
  13. ###这一行定义了数据集中的类别名称:license_plate,表示这个类别的名称是车牌。
  14. names: [
  15. 'license_plate'
  16. ]

 就报了这样的错误,但是在前面的代码中我都是用"\\"表示"\",我猜测可能是注释干扰了"\\"

于是修改代码 

  1. %%writefile ultralytics\\custom_dataset.yaml
  2. # Create Custom Dataset Configuration
  3. train: ultralytics\\datasets\\train
  4. val: ultralytics\\datasets\\val
  5. test: ultralytics\\datasets\\test
  6. nc: 1
  7. names: [
  8. 'license_plate'
  9. ]

                            运行结果                            

因为之前已经运行过一次这个文件,所以显示重写'ultralytics\\custom_dataset.yaml'文件。

Overwriting ultralytics\\custom_dataset.yaml

4.3. YOLOv8 Training

为YOLO_v8的使用做准备,安装相应的库、释放缓存

                          代码                           

  1. ### 安装GPUtil库,用于获取GPU使用情况
  2. !pip install GPUtil
  3. ### 导入GPUtil库中的showUtilization函数,并将其重命名为gpu_usage
  4. from GPUtil import showUtilization as gpu_usage
  5. ### 定义一个名为free_gpu_cache的函数,用于释放GPU缓存
  6. def free_gpu_cache():
  7. ### 打印初始GPU使用情况
  8. print("Initial GPU Usage")
  9. ### 调用gpu_usage函数,显示GPU使用情况
  10. gpu_usage()
  11. ### 清空PyTorch的CUDA缓存
  12. torch.cuda.empty_cache()
  13. ### 选择第一个GPU设备
  14. cuda.select_device(0)
  15. ### 关闭当前选中的GPU设备
  16. cuda.close()
  17. ### 再次选择第一个GPU设备
  18. cuda.select_device(0)
  19. #### 打印清空缓存后的GPU使用情况
  20. print("GPU Usage after emptying the cache")
  21. ### 调用gpu_usage函数,显示GPU使用情况
  22. gpu_usage()
  23. ### 调用free_gpu_cache函数,执行释放GPU缓存的操作
  24. free_gpu_cache()

                            运行结果                           

该代码在Python环境中使用GPUtil库(版本号为1.4.0)来获取GPU的使用情况。

初始的GPU使用情况:ID为0的GPU的GPU占用率为0%,内存占用也为0%。

清空了PyTorch的CUDA缓存后GPU的使用情况:ID为0的GPU的GPU占用率变为了2%,内存占用也变为了2%。

这段代码的目的是通过清空CUDA缓存来释放GPU资源,并观察GPU使用情况的变化。

(释放缓存之后占用率还变高了?)

Requirement already satisfied: GPUtil in d:\env\anaconda\lib\site-packages (1.4.0)
Initial GPU Usage
| ID | GPU | MEM |
------------------
|  0 |  0% |  0% |
GPU Usage after emptying the cache
| ID | GPU | MEM |
------------------
|  0 |  2% |  2% |

                          代码                           

!yolo train model=yolov8s.pt data="D:\\target_detection\\yolov8-master\\ultralytics\\custom_dataset.yaml" epochs=25 verbose=True batch=32

                            运行结果                           

训练代码我组用了远程GPU4090,且训练集只有600个样本。但每次训练代码时,都一直显示*号, 训练不出权重文件,但是又确实是在训练,由于找不到原因,我决定换代码来解决这个任务。

数据集配置文件

  1. # Create Custom Dataset Configuration
  2. train: D:\\target_detection\\yolov8-master\\ultralytics\\datasets\\train
  3. val: D:\\target_detection\\yolov8-master\\ultralytics\\datasets\\val
  4. test: D:\\target_detection\\yolov8-master\\ultralytics\\datasets\\test
  5. nc: 1
  6. names: [
  7. 'license_plate'
  8. ]

以下是runs文件夹里保存的训练结果 

train13

weights文件夹为空

生成的.yaml文件

  1. task: detect ##任务类型为目标检测
  2. mode: train ##模式为训练
  3. model: yolov8s.pt ##使用的预训练权重文件为yolov8s.pt
  4. data: ultralytics\\custom_dataset.yaml ##数据集配置文件路径为ultralytics\custom_dataset.yaml
  5. epochs: 25 ##训练的总轮数为25
  6. time: null ##未设置时间限制
  7. patience: 100 ##当验证损失在连续100个epoch没有改善时,停止训练
  8. batch: 32 ##每个批次的样本数量为32
  9. imgsz: 640 ##输入图像的大小为640x640
  10. save: true ##保存模型权重
  11. save_period: -1
  12. cache: false
  13. device: null
  14. workers: 8
  15. project: null
  16. name: train13
  17. exist_ok: false
  18. pretrained: true
  19. optimizer: auto
  20. verbose: true
  21. seed: 0
  22. deterministic: true
  23. single_cls: false
  24. rect: false
  25. cos_lr: false
  26. close_mosaic: 10
  27. resume: false
  28. amp: true
  29. fraction: 1.0
  30. profile: false
  31. freeze: null
  32. multi_scale: false
  33. overlap_mask: true
  34. mask_ratio: 4
  35. dropout: 0.0
  36. val: true
  37. split: val
  38. save_json: false
  39. save_hybrid: false
  40. conf: null
  41. iou: 0.7
  42. max_det: 300
  43. half: false
  44. dnn: false
  45. plots: true
  46. source: null
  47. vid_stride: 1
  48. stream_buffer: false
  49. visualize: false
  50. augment: false
  51. agnostic_nms: false
  52. classes: null
  53. retina_masks: false
  54. embed: null
  55. show: false
  56. save_frames: false
  57. save_txt: false
  58. save_conf: false
  59. save_crop: false
  60. show_labels: true
  61. show_conf: true
  62. show_boxes: true
  63. line_width: null
  64. format: torchscript
  65. keras: false
  66. optimize: false
  67. int8: false
  68. dynamic: false
  69. simplify: false
  70. opset: null
  71. workspace: 4
  72. nms: false
  73. lr0: 0.01
  74. lrf: 0.01
  75. momentum: 0.937
  76. weight_decay: 0.0005
  77. warmup_epochs: 3.0
  78. warmup_momentum: 0.8
  79. warmup_bias_lr: 0.1
  80. box: 7.5
  81. cls: 0.5
  82. dfl: 1.5
  83. pose: 12.0
  84. kobj: 1.0
  85. label_smoothing: 0.0
  86. nbs: 64
  87. hsv_h: 0.015
  88. hsv_s: 0.7
  89. hsv_v: 0.4
  90. degrees: 0.0
  91. translate: 0.1
  92. scale: 0.5
  93. shear: 0.0
  94. perspective: 0.0
  95. flipud: 0.0
  96. fliplr: 0.5
  97. bgr: 0.0
  98. mosaic: 1.0
  99. mixup: 0.0
  100. copy_paste: 0.0
  101. auto_augment: randaugment
  102. erasing: 0.4
  103. crop_fraction: 1.0
  104. cfg: null
  105. tracker: botsort.yaml
  106. save_dir: runs\detect\train13

 

由输出可知,模型没有成功训练,但jupyter notebook并没有提供相应错误信息,于是这个项目将交由另一个代码解决。


5. Review

由于大项目需要很多精力去研读理解,我之前写代码比较偏向jupyter notebook。

经过这次实践,我发现jupyter notebook对于解决工程问题不太适用,jupyter notebook的长项在于记录,而在跑比较复杂的项目时会出现不太稳定,信息显示不详细等问题。

在之后的项目中,我会合理运用jupyter notebook。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/806324
推荐阅读
相关标签
  

闽ICP备14008679号