当前位置:   article > 正文

基于深度学习的车牌检测系统(含UI界面,Python代码)目标检测_车牌数据集开源

车牌数据集开源

整体架构: 模型:yolox:目标检测车牌、LPRNet:识别车牌 数据集:CCPD2019、CCPD2020数据集

本算法,支持识别蓝盘和绿牌识别,黄牌因没有数据集,目前还不支持。算法不是调包,都是自己进行模型训练,到时候可以根据自己的数据集,进行训练。也可以更换检测模型

一、数据集

简介

CCPD是一个大型的、多样化的、经过仔细标注的中国城市车牌开源数据集。CCPD数据集主要分为CCPD2019数据集和CCPD2020(CCPD-Green)数据集。CCPD2019数据集车牌类型仅有普通车牌(蓝色车牌),CCPD2020数据集车牌类型仅有新能源车牌(绿色车牌)。 在CCPD数据集中,每张图片仅包含一张车牌,车牌的车牌省份主要为皖。

1. CCPD数据集下载:

(1)百度网盘下载链接(个人上传): https://pan.baidu.com/s/1ZvbRUsPwpJk_39FujpjObw?pwd=nygt 提取码:nygt (2)github下载:https://github.com/detectRecog/CCPD,github中包含详细的数据说明介绍

2. 数据集说明

CCPD2019中主要包含以下几个文件夹,

CCPD-Base:通用车牌图片,共200k CCPD-FN:车牌离摄像头拍摄位置相对较近或较远,共20k CCPD-DB:车牌区域亮度较亮、较暗或者不均匀,共20k CCPD-Rotate:车牌水平倾斜20到50度,竖直倾斜-10到10度,共10k CCPD-Tilt:车牌水平倾斜15到45度,竖直倾斜15到45度,共10k CCPD-Weather:车牌在雨雪雾天气拍摄得到,共10k CCPD-Challenge:在车牌检测识别任务中较有挑战性的图片,共10k CCPD-Blur:由于摄像机镜头抖动导致的模糊车牌图片,共5k CCPD-NP:没有安装车牌的新车图片,共5k

CCPD2020中的图像被拆分为train/val/test数据集。

3.CCPD数据集标注处理

CCPD数据集没有专门的标注文件,每张图像的文件名就是该图像对应的数据标注。例如图片3061158854166666665-97_100-159&434_586&578-558&578_173&523_159&434_586&474-0_0_3_24_33_32_28_30-64-233.jpg的文件名可以由分割符’-'分为多个部分:

(1)3061158854166666665:区域(这个值可能有问题,无用); (2)97_100:对应车牌的两个倾斜角度-水平倾斜角和垂直倾斜角, 水平倾斜97度, 竖直倾斜100度。水平倾斜度是车牌与水平线之间的夹角。二维旋转后,垂直倾斜角为车牌左边界线与水平线的夹角。 (3)159&434_586&578:对应边界框左上角和右下角坐标:左上(159, 434), 右下(586, 578); (4)558&578_173&523_159&434_586&474对应车牌四个顶点坐标(右下角开始顺时针排列):右下(558, 578),左下(173, 523),左上(159, 434),右上(586, 474); (5)0_0_3_24_33_32_28_30:为车牌号码(第一位为省份缩写),在CCPD2019中这个参数为7位,CCPD2020中为8位,有对应的关系表; (6)64:为亮度,数值越大车牌越亮(可能不准确,仅供参考); (7)233:为模糊度,数值越小车牌越模糊(可能不准确,仅供参考)。

4. CCPD数据集处理相关脚本

(1)CCPD数据集转VOC,xml文件保存

  1. import shutil
  2. import cv2
  3. import os
  4. from lxml import etree
  5. class labelimg_Annotations_xml:
  6. def __init__(self, folder_name, filename, path, database="Unknown"):
  7. self.root = etree.Element("annotation")
  8. child1 = etree.SubElement(self.root, "folder")
  9. child1.text = folder_name
  10. child2 = etree.SubElement(self.root, "filename")
  11. child2.text = filename
  12. # child3 = etree.SubElement(self.root, "path")
  13. # child3.text = path
  14. child4 = etree.SubElement(self.root, "source")
  15. child5 = etree.SubElement(child4, "database")
  16. child5.text = database
  17. def set_size(self, width, height, channel):
  18. size = etree.SubElement(self.root, "size")
  19. widthn = etree.SubElement(size, "width")
  20. widthn.text = str(width)
  21. heightn = etree.SubElement(size, "height")
  22. heightn.text = str(height)
  23. channeln = etree.SubElement(size, "channel")
  24. channeln.text = str(channel)
  25. def set_segmented(self, seg_data=0):
  26. segmented = etree.SubElement(self.root, "segmented")
  27. segmented.text = str(seg_data)
  28. def set_object(self, label, x_min, y_min, x_max, y_max,
  29. pose='Unspecified', truncated=0, difficult=0):
  30. object = etree.SubElement(self.root, "object")
  31. namen = etree.SubElement(object, "name")
  32. namen.text = label
  33. posen = etree.SubElement(object, "pose")
  34. posen.text = pose
  35. truncatedn = etree.SubElement(object, "truncated")
  36. truncatedn.text = str(truncated)
  37. difficultn = etree.SubElement(object, "difficult")
  38. difficultn.text = str(difficult)
  39. bndbox = etree.SubElement(object, "bndbox")
  40. xminn = etree.SubElement(bndbox, "xmin")
  41. xminn.text = str(x_min)
  42. yminn = etree.SubElement(bndbox, "ymin")
  43. yminn.text = str(y_min)
  44. xmaxn = etree.SubElement(bndbox, "xmax")
  45. xmaxn.text = str(x_max)
  46. ymaxn = etree.SubElement(bndbox, "ymax")
  47. ymaxn.text = str(y_max)
  48. def savefile(self, filename):
  49. tree = etree.ElementTree(self.root)
  50. tree.write(filename, pretty_print=True, xml_declaration=False, encoding='utf-8')
  51. def translate(path, save_path):
  52. for filename in os.listdir(path):
  53. print(filename)
  54. list1 = filename.split("-", 3) # 第一次分割,以减号'-'做分割
  55. subname = list1[2]
  56. list2 = filename.split(".", 1)
  57. subname1 = list2[1]
  58. if subname1 == 'txt':
  59. continue
  60. lt, rb = subname.split("_", 1) # 第二次分割,以下划线'_'做分割
  61. lx, ly = lt.split("&", 1)
  62. rx, ry = rb.split("&", 1)
  63. print(lx, ly, rx, ry)
  64. results_xml = [['green', lx, ly, rx, ry]]
  65. img = cv2.imread(os.path.join(path, filename))
  66. if img is None: # 自动删除失效图片(下载过程有的图片会存在无法读取的情况)
  67. # os.remove(os.path.join(path, filename))
  68. continue
  69. height, width, channel = img.shape
  70. save_xml_name = filename.replace('jpg', 'xml')
  71. anno = labelimg_Annotations_xml('folder_name', filename + '.jpg', 'path')
  72. anno.set_size(width, height, channel)
  73. anno.set_segmented()
  74. for data in results_xml:
  75. label, x_min, y_min, x_max, y_max = data
  76. anno.set_object(label, x_min, y_min, x_max, y_max)
  77. anno.savefile(os.path.join(save_path, save_xml_name))
  78. if __name__ == '__main__':
  79. # det图片存储地址
  80. img_path = r"E:\lg\BaiduSyncdisk\project\person_code\chepai_OCR\traindata\CCPD2020\ccpd_green\train"
  81. # det txt存储地址
  82. save_path = r"E:\lg\BaiduSyncdisk\project\person_code\yolox-pytorch\VOCdevkit\VOC2007\Annotations"
  83. translate(img_path, save_path)

转换后的效果,labelimg打开:

在这里插入图片描述

(2)CCPD转LPR保存,用于OCR识别

  1. import cv2
  2. import os
  3. '''
  4. 1. 此种转换有缺点:
  5. CCPD车牌有重复,应该是不同角度或者模糊程度,重复的车牌,命名一样,会冲掉
  6. 2. 支持绿牌,蓝牌数据集制作
  7. '''
  8. roi_path = r'E:\lg\BaiduSyncdisk\project\person_code\chepai_OCR\traindata\CCPD2019\ccpd_base'
  9. save_path = r'E:\lg\BaiduSyncdisk\project\person_code\chepai_OCR\traindata\LPR\11'
  10. provinces = ["皖", "沪", "津", "渝", "冀", "晋", "蒙", "辽", "吉", "黑", "苏", "浙", "京", "闽", "赣", "鲁", "豫", "鄂", "湘", "粤", "桂", "琼", "川", "贵", "云", "藏", "陕", "甘", "青", "宁", "新", "警", "学", "O"]
  11. alphabets = ['A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W',
  12. 'X', 'Y', 'Z', 'O']
  13. ads = ['A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X',
  14. 'Y', 'Z', '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'O']
  15. num = 0
  16. for root, dirs, files in os.walk(roi_path):
  17. for filename in files:
  18. num += 1
  19. lpr_label = ""
  20. _, _, box, points, plate, brightness, blurriness = filename.split('-')
  21. print('plate:', plate)
  22. list_plate = plate.split('_') # 读取车牌
  23. for i, pla in enumerate(list_plate):
  24. if i == 0:
  25. lpr_label += provinces[int(pla)]
  26. elif i == 1:
  27. lpr_label += alphabets[int(pla)]
  28. else:
  29. lpr_label += ads[int(pla)]
  30. print(lpr_label)
  31. img_path = os.path.join(roi_path, filename)
  32. img = cv2.imread(img_path)
  33. assert os.path.exists(img_path), "image file {} dose not exist.".format(img_path)
  34. box = box.split('_') # 车牌边界
  35. box = [list(map(int, i.split('&'))) for i in box]
  36. xmin = box[0][0]
  37. xmax = box[1][0]
  38. ymin = box[0][1]
  39. ymax = box[1][1]
  40. crop_img = img[ymin:ymax, xmin:xmax]
  41. crop_img = cv2.resize(crop_img, (94, 24))
  42. cv2.imencode('.jpg', crop_img)[1].tofile(os.path.join(save_path, lpr_label + '.jpg'))
  43. print("共生成{}张".format(num))

转换后的结果(以名字保存图片):

在这里插入图片描述


二、目标检测(车牌检测)

简介

  1. 数据集:使用的是用上面CCPD数据集制作的VOC格式的数据集训练,包含蓝牌和绿牌,大约共20完张图片
  2. 模型:yolox
模型input-sizeparams(M)map0.5
yolox-s640*64034.30.990

1. 模型训练

1.1 模型训练结果

在这里插入图片描述


三、车牌识别(OCR)

简介

  1. 数据集:使用的是上面CCPD制作的数据集
  2. 模型:LPRNet
模型input-sizeparams(M)准确率
LPR-net94*241.70.995

1. 模型结构介绍

2. 损失函数

2.1 torch.nn.CTCLoss()

  • 1、简介

CTC 的全称是Connectionist Temporal Classification,中文名称是“连接时序分类”,这个方法主要是解决神经网络label 和output 不对齐的问题(Alignment problem)。 优点:是不用强制对齐标签且标签可变长,仅需输入序列和监督标签序列即可进行训练,

应用场景:文本识别(scene text recognition)、语音识别(speech recognition)及手写字识别(handwriting recognition)等工程场景。

  • 2、CTCLoss接口说明

第一步: 创建CTCLoss对象

ctc_loss = nn.CTCLoss(blank=len(CHARS)-1, reduction='mean')

参数说明: (1) blank: 空白标签所在的label值,默认为0,需要根据实际的标签定义进行设定; 我们在预测文本时,一般都是有一个空白字符的,整个blank表示的就是空白字符在总字符集中的位置。

(2) reduction: 处理output losses的方式,string类型,可选’none’ 、 ‘mean’ 及 ‘sum’,'none’表示对output losses不做任何处理,‘mean’ 则对output losses (即输出的整个batch_size的损失做操作) 取平均值处理,‘sum’则是对output losses求和处理,默认为’mean’ 。

第二步: 在迭代中调用CTCLoss计算损失值

loss = ctc_loss(log_probs, targets, input_lengths, target_lengths)

参数说明: (1)log_probs: shape=(T, N, C) 的模型输出张量,T: 表示输出的序列的长度; N: 表示batch_size值; C: 表示包含有空白标签的所有要预测的字符集总长度。

如:shape = (50, 32, 5000), 其中的50表示一幅图像最多有50个字, 32为batch_size, 5000表示整个数据集的字符集为5000个。

注: log_probs一般需要经过torch.nn.functional.log_softmax处理后再送入到CTCLoss中

(2)targets: shape=(N, S) 或 (sum(target_lengths))的张量。其中对于第一种类型,N表示batch_size, S表示标签长度。

如:shape =(32, 50),其中的32为batch_size, 50表示每个标签有50个字符。

对于第二种类型,则为所有标签之和,也就是将所有的label合并成了一个1维的数据。

如: tensor([18, 45, 33, 37, 40, 49, 63, 4, 54, 51, 34, 53, 37, 38, 22, 56, 37, 38,33, 39, 34, 46, 2, 41, 44, 37, 39, 35, 33, 40])

注:targets不能包含空白标签。

(3)input_lengths: shape为(N)的张量或元组,但每一个元素的长度必须等于T即输出序列长度,一般来说模型输出序列固定后则该张量或元组的元素值均相同;

(4)target_lengths: shape为(N)的张量或元组,其每一个元素指示每个训练输入序列的标签长度,但标签长度是可以变化的;

如: target_lengths = [23, 34,32, … , 45, 34], 表示第一张图片的标签长度为23个字符,第2张图片的标签长度为34个字符。

  • 3、应用实例:“CTCLoss在车牌识别中的应用”

(1)字符集:CHARS

  1. CHARS = ['京', '沪', '津', '渝', '冀', '晋', '蒙', '辽', '吉', '黑',
  2. '苏', '浙', '皖', '闽', '赣', '鲁', '豫', '鄂', '湘', '粤',
  3. '桂', '琼', '川', '贵', '云', '藏', '陕', '甘', '青', '宁',
  4. '新',
  5. '0', '1', '2', '3', '4', '5', '6', '7', '8', '9',
  6. 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K',
  7. 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V',
  8. 'W', 'X', 'Y', 'Z', 'I', 'O', '-'
  9. ]

(2)创建CTCLoss对象 因为空白标签所在的位置为len(CHARS)-1,而我们需要处理CTCLoss output losses的方式为‘mean’,则需要按照如下方式初始化CTCLoss类:

ctc_loss = nn.CTCLoss(blank=len(CHARS)-1, reduction='mean')

设定输出序列长度T为18,训练批大小N为4,总的字符集长度C如上面CHARS所示为68:

在这里插入图片描述

(3)CTCLoss输入的解释 那么我们在训练一次迭代中打印各个输入形参得出如下结果: 1) log_probs由于数值比较多且为神经网络前向输出结果,我们仅打印其shape出来,如下: torch.Size([18, 4, 68])

2) 打印targets如下,表示这四张车牌的训练标签,根据target_lengths划分标签后可分别表示这四张车牌: tensor([18, 45, 33, 37, 40, 49, 63, 4, 54, 51, 34, 53, 37, 38, 22, 56, 37, 38,33, 39, 34, 46, 2, 41, 44, 37, 39, 35, 33, 40]). 共30个数字,因为,上图中的车牌号的实际长度依次为:(7, 8, 8, 7),共30个字符。

3) 打印target_lengths如下,每个元素分别指定了按序取targets多少个元素来表示一个车牌即标签: (7, 7, 8, 8)

4) 打印input_lengths如下,由于输出序列长度T已经设定为18,因此其元素均是固定相同的: (18, 18, 18, 18)

其中,只要模型配置固定了后,log_probs不需要我们组装再传送到CTCLoss,但是其余三个输入形参均需要我们根据实际数据集及C、T、N的情况进行设定!

  • 4、使用注意
  1. 官方所给的例程如下,但在实际应用中需要将log_probs的detach()去掉,看注释行,否则无法反向传播进行训练; 如:
  1. ctc_loss = nn.CTCLoss()
  2. logits = lprnet(images)
  3. log_probs = logits.permute(2, 0, 1) # for ctc loss: T x N x C
  4. log_probs = log_probs.log_softmax(2).requires_grad_()
  5. # log_probs = log_probs.detach().requires_grad_()
  6. optimizer.zero_grad()
  7. # log_probs: 预测结果 [18, bs, 68] 其中18为序列长度 68为字典数
  8. # labels: [93]
  9. # input_lengths: tuple example: 000=18 001=18... 每个序列长度
  10. # target_lengths: tuple example: 000=7 001=8 ... 每个gt长度
  11. loss = ctc_loss(log_probs, labels, input_lengths=input_lengths, target_lengths=target_lengths)
  1. blank空白标签一定要依据空白符在预测总字符集中的位置来设定,否则就会出错;
  2. targets建议将其shape设为(sum(target_lengths)),然后再由target_lengths进行输入序列长度指定就好了,这是因为如果设定为(N, S),则因为S的标签长度如果是可变的,那么我们组装出来的二维张量的第一维度的长度仅为min(S)将损失一部分标签值(多维数组每行的长度必须一致),这就导致模型无法预测较长长度的标签;
  3. 输出序列长度T尽量在模型设计时就要考虑到模型需要预测的最长序列,如需要预测的最长序列其长度为I,则理论上T应大于等于2I+1,这是因为CTCLoss假设在最坏情况下每个真实标签前后都至少有一个空白标签进行隔开以区分重复项;
  4. 输出的log_probs除了进行log_softmax()处理再送入CTCLoss外,还必须要调整其维度顺序,确保其shape为(T, N, C)!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/655566
推荐阅读
相关标签
  

闽ICP备14008679号