当前位置:   article > 正文

智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》_opencv车牌识别代码

opencv车牌识别代码

智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》

目录

智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》

1. 前言

2. 车牌识别的方法

3. 车牌检测+识别数据集

4. 车牌检测模型训练

5. 车牌识别模型训练

(1)项目安装

(2)构建Train和Test车牌识别数据

(3)构建模型

(4)修改配置文件:config_crnn.yaml

(5)开始训练

(6)可视化训练过程

(7)一些说明和优化建议

6. 车牌识别效果(Python版本)

7. 车牌识别效果(Android版本)

8. 车牌识别项目源码下载


1. 前言

这是项目《智能驾驶 车牌检测和识别》系列之《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》;项目将搭建一个智能的支持多车牌的车牌检测和识别系统;整套项目主要包含两大算法:

(1)车牌检测:项目使用YOLOv5进行车牌检测,轻量化后的模型可以部署到Android平台或者开发板上,在多线程或者GPU下,可以达到实时车牌检测效果

(2)车牌识别:项目基于CRNN或LPRNet模型构建车牌识别算法,支持绿牌和蓝牌识别;为方便后续工程化,项目对CRNN模型进行魔改,提出一个PlateNet模型,用于支持部署到Android平台或者开发板上

整套智能车牌检测和识别系统,在普通Android手机上可以达到实时的检测效果,CPU(4线程)约30ms左右,GPU约25ms左右 ,基本满足业务的性能需求。下表格给出CRNN,LPRNet和PlateNet模型的计算量和参数量以及其车牌识别的准确率:

模型input-sizeparams(M)GFLOPsAccuracy
LPRNet94×240.48M0.147GFlops0.9393
CRNN160×328.35M1.06GFlops0.9343
PlateNet168×481.92M1.25GFlops0.9583

车牌识别Demo效果展示:

【 整套项目下载地址】:智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》

【Android Demo体验】https://download.csdn.net/download/guyuealian/87400593

【尊重原创,转载请注明出处】《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》:https://blog.csdn.net/guyuealian/article/details/128704209


 更多项目《智能驾驶 车牌检测和识别》系列文章请参考:

  1. 智能驾驶 车牌检测和识别(一)《CCPD车牌数据集》:https://blog.csdn.net/guyuealian/article/details/128704181
  2. 智能驾驶 车牌检测和识别(二)《YOLOv5实现车牌检测(含车牌检测数据集和训练代码)》:https://blog.csdn.net/guyuealian/article/details/128704068
  3. 智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》:https://blog.csdn.net/guyuealian/article/details/128704209
  4. 智能驾驶 车牌检测和识别(四)《Android实现车牌检测和识别(可实时识别车牌)》:https://blog.csdn.net/guyuealian/article/details/128704242
  5. 智能驾驶 车牌检测和识别(五)《C++实现车牌检测和识别(可实时识别车牌)》:https://blog.csdn.net/guyuealian/article/details/128704276
  6. 智能驾驶 红绿灯检测(一)《红绿灯(交通信号灯)数据集》:https://blog.csdn.net/guyuealian/article/details/128222850
  7. 智能驾驶 红绿灯检测(二)《YOLOv5实现红绿灯检测(含红绿灯数据集+训练代码)》:https://blog.csdn.net/guyuealian/article/details/128240198
  8. 智能驾驶 红绿灯检测(三)《Android实现红绿灯检测(含Android源码 可实时运行)》:https://blog.csdn.net/guyuealian/article/details/128240334
  9. 智能驾驶 车辆检测(一)《UA-DETRAC BITVehicle车辆检测数据集》:https://blog.csdn.net/guyuealian/article/details/127907325

  10. 智能驾驶 车辆检测(二)《YOLOv5实现车辆检测(含车辆检测数据集+训练代码)》:https://blog.csdn.net/guyuealian/article/details/128099672

  11. 智能驾驶 车辆检测(三)《Android实现车辆检测(含Android源码 可实时运行)》:https://blog.csdn.net/guyuealian/article/details/128190532


2. 车牌识别的方法

传统的车牌识别的方法主要采用字符分割的方法实现车牌识别,即先将车牌图像按照预定的规则将车牌的字符一个一个切割,并按照模式匹配的方法识别车牌字符;显然该方法效率低,准确率也不高;

目前,车牌识别的研究方向是基于深度学习的无分割的车牌识别方法,即将车牌识别问题转化为字符序列标记问题,如项目使用的CRNN,LPRNet和PlateNet等模型都是无分割的车牌识别方法。

上述介绍的几种车牌识别方法,都需要进行车牌定位,然后才能进行车牌识别;当然也存在无需车牌定位(车牌检测)的方法,即将定位和识别放在了一个网络上,真正实现了一个网络端到端的车牌识别《Towards End-to-End Car License Plates Detection and Recognition with Deep Neural Networks》

项目将搭建一个车牌检测和识别系统;整套项目主要包含两大算法:

(1)车牌检测:项目使用YOLOv5进行车牌检测,轻量化后的模型可以部署到Android平台或者开发板上,在多线程或者GPU下,可以达到实时车牌检测效果

(2)车牌识别:项目基于CRNN或LPRNet模型构建车牌识别算法,支持绿牌和蓝牌识别;为方便后续工程化,项目对CRNN模型进行魔改,提出一个PlateNet模型,用于支持部署到Android平台或者开发板上


3. 车牌检测+识别数据集

目前收集了约30W+的车牌检测数据集(含蓝牌和绿牌),主要使用开源的CCPD车牌数据集,关于CCPD车牌数据集说明,请参考智能驾驶 车牌检测和识别(一)《CCPD车牌数据集》:https://blog.csdn.net/guyuealian/article/details/128704181


4. 车牌检测模型训练

项目使用YOLOv5进行车牌检测,轻量化后的模型可以部署到Android平台或者开发板上,在多线程或者GPU下,可以达到实时车牌检测效果,关于车牌检测模型训练的说明,请参考智能驾驶 车牌检测和识别(二)《YOLOv5实现车牌检测(含车牌检测数据集和训练代码)》:https://blog.csdn.net/guyuealian/article/details/128704068


5. 车牌识别模型训练

(1)项目安装

  1. .
  2. ├── configs
  3. ├── core
  4. ├── data
  5. ├── docs
  6. ├── modules
  7. ├── output
  8. ├── README.md
  9. ├── demo.py
  10. ├── demo.sh
  11. ├── train.py
  12. └── train.sh

  

推荐使用Python3.8或Python3.7,更高版本可能存在版本差异问题,Python依赖环境,使用pip安装即可,项目代码都在Ubuntu系统和Windows系统验证正常运行,请放心使用;若出现异常,大概率是相关依赖包版本没有完全对应

  1. matplotlib>=3.2.2
  2. numpy>=1.18.5
  3. opencv-python>=4.1.2
  4. Pillow
  5. PyYAML>=5.3.1
  6. scipy>=1.4.1
  7. torch>=1.7.0
  8. torchvision>=0.8.1
  9. tqdm>=4.41.0
  10. tensorboard>=2.4.1
  11. seaborn>=0.11.0
  12. pandas
  13. thop # FLOPs computation
  14. pybaseutils==0.7.0

 项目安装教程请参考(初学者入门,麻烦先看完下面教程,配置好开发环境):

(2)构建Train和Test车牌识别数据

车牌识别数据,主要来源于CCPD数据集,训练数据和测试数据的数据格式,要求非常简单:

  1. 对车牌进行裁剪时,请尽量保证车牌号的完整性,其他车身等非车牌区域尽量去除,仅裁剪车牌区域即可
  2. 一张图片仅包含一个车牌,可以绿牌也可以蓝牌
  3. 车牌图片文件命名规则:车牌号_序号ID ;如【沪AD07225_00798_000.jpg】,其中【沪AD07225】表示这个张图片的真实车牌号,【00798_000】是序号ID,这个序号ID是为了避免车牌号重复,序号ID可以是任意字符;模型训练时,仅取车牌号作为label进行训练,序号ID会被忽略。
  4. 如果,你需要新增自己的车牌识别数据集,请按照上面的要求制作即可

以下是车牌识别数据的样本数据,请参考格式制作即可;项目源码已经附带了制作好的CCPD车牌识别数据集,可以直接用于车牌识别模型训练:

(3)构建模型

项目实现了三个车牌识别模型:CRNN,LPRNet和PlateNet,其计算量和参数量参考如下:

  • CRNN:最经典的OCR模型了,采用CNN+RNN的网络结构,提出CTC-Loss对齐算法解决不定长序列对齐问题;原始源码是用于文字识别的,稍微改成车牌数据集,即可用于车牌识别了
  • LPRNet相比经典的CRNN模型,LPRNet 没有采用RNN结构;是专门设计用于车牌识别的轻量级的模型,整个网络结构设计高度轻量化,参数量仅有0.48M
  • PlateNet:LPRNet网络结构中存在MaxPool3d等算子,在端上部署时,会存在OP不支持等问题,PlateNet模型去除MaxPool3d,改成使用MaxPool2d,保证模型可端上部署成功。
模型input-sizeparams(M)GFLOPs
LPRNet94×240.48M0.147GFlops
CRNN160×328.35M1.06GFlops
PlateNet168×481.92M1.25GFlops

(4)修改配置文件:config_crnn.yaml

准备好数据好,下一步是修改配置文件config_crnn.yaml的数据路径:

  • 修改train_data和test_data为你自己的数据路径
  • 其他参数保持默认即可
  1. train_data:
  2. - 'dataset/CCPD2020-voc/train/plates'
  3. - 'dataset/CCPD2020-voc/val/plates'
  4. - 'dataset/CCPD2019-voc/ccpd_base/plates-train'
  5. - 'dataset/CCPD2019-voc/ccpd_blur/plates'
  6. - 'dataset/CCPD2019-voc/ccpd_challenge/plates'
  7. - 'dataset/CCPD2019-voc/ccpd_db/plates'
  8. - 'dataset/CCPD2019-voc/ccpd_fn/plates'
  9. - 'dataset/CCPD2019-voc/ccpd_rotate/plates'
  10. - 'dataset/CCPD2019-voc/ccpd_tilt/plates'
  11. - 'dataset/CCPD2019-voc/ccpd_weather/plates'
  12. test_data:
  13. - 'dataset/CCPD2020-voc/test/plates'
  14. - 'dataset/CCPD2019-voc/ccpd_base/plates-test'
  15. class_name: "data/plates_table.txt"
  16. train_transform: "train"
  17. test_transform: "test"
  18. batch_size: 128
  19. net_type: 'CRNN'
  20. flag: "Perspective"
  21. input_size: [ 160, 32 ]
  22. rgb_mean: [ 0.5, 0.5, 0.5 ]
  23. rgb_std: [ 0.5, 0.5, 0.5 ]
  24. resample: True
  25. work_dir: "work_space"
  26. num_epochs: 200
  27. optim_type: 'Adam'
  28. lr: 0.001
  29. weight_decay: 0.0
  30. milestones: [ 100,150,170 ]
  31. momentum: 0.0
  32. gpu_id: [ 0 ]
  33. num_workers: 8
  34. log_freq: 10
  35. pretrained: "data/pretrained/CRNN/CRNN.pth"

配置文件每个参数含义如下: 

参数类型参考值说明
train_datastr, list-训练数据文件,可支持多个文件
test_datastr, list-测试数据文件,可支持多个文件
class_namestr-类别文件
train_transformstrtrain训练数据数据处理方法
test_transformstrtest测试数据数据处理方法
work_dirstrwork_space训练输出工作空间
net_typestrCRNN骨干网络,支持CRNN,LPRNe和PlateNet等模型
intput_sizelist[160,32]模型输入大小
rgb_meanlist[0.5,0.5,0.5]图像归一化均值
rgb_stdlist[0.5,0.5,0.5]图像归一化方差
resampleboolTrue进行样本均衡
batch_sizeint128批训练大小
lrfloat0.001初始学习率大小
optim_typestrAdam优化器,{SGD,Adam}
milestoneslist[30,80,100]降低学习率的节点
momentumfloat0.9SGD动量因子
num_epochsint200循环训练的次数
num_workersint8DataLoader开启线程数
weight_decayfloat5e-4权重衰减系数
gpu_idlist[ 0 ]指定训练的GPU卡号,可指定多个
log_freqint10显示LOG信息的频率
pretrainedstrmodel.pthpretrained的模型

(5)开始训练

整套训练代码非常简单操作,项目源码已经给出CRNN,LPRNet和PlateNet的配置文件;用户只需要修改好配置文件的的数据路径,即可开始训练了。

  • 训练CRNN模型
python train.py -c  configs/config_crnn.yaml
  • 训练LPRNet模型
python train.py -c  configs/config_lprnet.yaml
  •  训练PlateNet模型
python train.py -c  configs/config_platenet.yaml

(6)可视化训练过程

训练过程可视化工具是使用Tensorboard,使用方法:

  1. # 基本方法
  2. tensorboard --logdir=path/to/log/
  3. # 例如(请修改自己的训练的模型路径)
  4. tensorboard --logdir=data/weight/CRNN_Perspective_20230113174750/log

下表格给出CRNN,LPRNet和PlateNet模型的计算量和参数量以及其车牌识别的准确率:

模型input-sizeparams(M)GFLOPsAccuracy
LPRNet94×240.48M0.147GFlops0.9393
CRNN160×328.35M1.06GFlops0.9343
PlateNet168×481.92M1.25GFlops0.9583

(7)一些说明和优化建议

  • 数据长尾问题:CCPD车牌数据集拍摄的车牌照片的环境复杂多变,包括了倾斜、模糊、雨天、雪天等多个场景的数据,并且大部分图片有且仅含有一个车牌;由于采集人员主要在安徽省城市的停车场进行采集,导致大部分数据都是含【皖】的车牌图片,而其他省份(如宁,藏省份)的车牌比较少,而一些特殊车牌的数据就几乎没有,比如【挂使领民航危险品】这些车牌几乎没有。数据长尾问题这会导致模型识别结果偏向于数据较多的样本类别,车牌省份经常被误识别为【皖】。CCPD数据各个省份的车牌数据统计:

  • 样本均衡:为了减小数据长尾问题的影响,建议实现Re-Sampling机制,或者增加【新吉青琼宁藏】车牌,警用车牌,武警车牌,使馆车牌,民航车牌和危险品车牌等数据集,提高模型的泛化性;项目已经实现Re-Sampling机制,配置文件设置resample=True即可
  • 车牌倾斜的问题:现实场景中,由于摄像头角度安装位置,车牌位置等因素,抓拍的车牌图片往往是倾斜的,这会影响车牌识别的效果;建议对车牌进行倾斜矫正,可以采用opencv的霍夫变换 cv2.HoughLines()进行倾斜矫正,提高识别准确率。项目实现了车牌矫正工具:core/utils/image_correction.py
  • 双层车牌:项目暂不支持双层车牌识别,一种简单可行的双层车牌识别方法是采用拼接成单层车牌的方式进行识别,如:

  •  车牌颜色问题:普通蓝牌共有7位字符;新能源车牌有8位字符,蓝绿车牌可以通过车牌个数进行判断;当然后续优化,也可以修改模型增加一个分支用于预测车牌的颜色

6. 车牌识别效果(Python版本)

demo.py文件用于推理和测试模型的效果,填写好模型文件以及测试图片即可运行测试了

demo.py源码:

  1. # -*-coding: utf-8 -*-
  2. """
  3. @Author : PKing
  4. @E-mail : 390737991@qq.com
  5. @Date : 2022-12-30 10:40:48
  6. @Brief :
  7. """
  8. import os
  9. import cv2
  10. import torch
  11. import numpy as np
  12. import argparse
  13. from typing import List, Tuple
  14. from core.models.build_model import get_models
  15. from core.transforms import build_transform
  16. from core.utils import image_correction
  17. from modules.yolov5.engine.yolov5_detector import Yolov5Detector
  18. from pybaseutils import file_utils, image_utils
  19. from basetrainer.utils.converter import pytorch2onnx
  20. ROOT = os.path.dirname(__file__)
  21. PLATE_TABLE = "#京沪津渝冀晋蒙辽吉黑苏浙皖闽赣鲁豫鄂湘粤桂琼川贵云藏陕甘青宁新学警港澳挂使领民航危0123456789ABCDEFGHJKLMNPQRSTUVWXYZ险品"
  22. class Recognizer(object):
  23. def __init__(self, model_file, net_type, class_name=None, use_detector=True, input_size=(),
  24. rgb_mean=[0.5, 0.5, 0.5], rgb_std=[0.5, 0.5, 0.5], alignment=True, export=True, device="cuda:0"):
  25. """
  26. :param model_file: 车牌识别模型文件
  27. :param net_type: 车牌识别模型名称
  28. :param class_name: 车牌所有字符类别
  29. :param use_detector: 是否检测车牌
  30. :param input_size: 模型输入大小
  31. :param rgb_mean: rgb_mean
  32. :param rgb_std: rgb_std
  33. :param alignment: 是否进行车牌矫正
  34. :param export: 是否导出ONNX模型
  35. :param device: 运行设备
  36. """
  37. self.device = device
  38. self.rgb_mean = rgb_mean
  39. self.rgb_std = rgb_std
  40. self.net_type = net_type
  41. self.alignment = alignment # 是否进行车牌倾斜矫正
  42. if not input_size:
  43. input_size = (168, 48) if net_type.lower() == "PlateNet".lower() else input_size
  44. input_size = (94, 24) if net_type.lower() == "LPRNet".lower() else input_size
  45. input_size = (160, 32) if net_type.lower() == "CRNN".lower() else input_size
  46. self.input_size = input_size
  47. self.use_detector = use_detector
  48. self.transform = build_transform.image_transform(input_size=self.input_size,
  49. rgb_mean=self.rgb_mean,
  50. rgb_std=self.rgb_std,
  51. trans_type="test")
  52. # 类别
  53. if not class_name: class_name = [n for n in PLATE_TABLE]
  54. self.class_name, self.class_dict = file_utils.parser_classes(class_name)
  55. self.num_classes = len(self.class_name)
  56. # 加载车牌识别模型
  57. self.model = self.build_model(model_file)
  58. # 加载车牌检测模型
  59. if self.use_detector:
  60. # imgsz, weights = 640, os.path.join(ROOT, "modules/yolov5/data/model/yolov5s_640/weights/best.pt")
  61. imgsz, weights = 320, os.path.join(ROOT, "modules/yolov5/data/model/yolov5s05_320/weights/best.pt")
  62. self.detector = Yolov5Detector(weights, imgsz=imgsz, conf_thres=0.5, iou_thres=0.5, device=self.device)
  63. # 转换为ONNX模型
  64. if export:
  65. onnx_file = model_file[:-len("pth")] + "onnx"
  66. pytorch2onnx.convert2onnx(self.model, input_shape=(1, 3, input_size[1], input_size[0]),
  67. onnx_file=onnx_file, simplify=True)
  68. print("convert model to onnx:{}".format(onnx_file))
  69. def build_model(self, model_file):
  70. """
  71. 构建模型
  72. :param model_file:
  73. :return:
  74. """
  75. check_point = torch.load(model_file, map_location="cpu")
  76. model_state = check_point['state_dict']
  77. model = get_models(net_type=self.net_type, num_classes=self.num_classes,
  78. input_size=self.input_size, is_train=False) # export True 用来推理
  79. # model =build_lprnet(num_classes=len(plate_chr),export=True)
  80. model.load_state_dict(model_state)
  81. model.to(self.device)
  82. model.eval()
  83. return model
  84. def plates_detect(self, image):
  85. """
  86. 车牌检测
  87. :param image: BGR Image
  88. :return:
  89. """
  90. dets = self.detector.detect(image=image, vis=False)
  91. dets = dets[0] if len(dets) > 0 else []
  92. return dets
  93. def plates_correction(self, images: List[np.ndarray]):
  94. """
  95. 车牌倾斜矫正
  96. :param images:
  97. :return:
  98. """
  99. cimages = []
  100. for img in images:
  101. img, angle = image_correction.ImageCorrection.correct(img, vis=False)
  102. cimages.append(img)
  103. return cimages
  104. def plates_recognize(self, image):
  105. """
  106. 车牌识别
  107. :param image:
  108. :return:
  109. """
  110. h, w = image.shape[:2]
  111. dets = [[0, 0, w, h]]
  112. result = {"dets": [], "plates": []}
  113. if self.use_detector:
  114. dets = self.plates_detect(image)
  115. image = image_utils.get_bboxes_crop(image, dets)
  116. if len(image) == 0: return result
  117. with torch.no_grad():
  118. input_tensor = self.preprocess(image, alignment=self.alignment) # torch.Size([1, 3, 48, 168])
  119. outputs = self.model(input_tensor.to(self.device)) # classifier prediction
  120. outputs = outputs.argmax(dim=2) # torch.Size([1, 21, 78])
  121. outputs = outputs.cpu().detach().numpy()
  122. preb_labels = self.postprocess(outputs)
  123. plates = self.map_class_name(preb_labels)
  124. result = {"dets": dets, "plates": plates}
  125. return result
  126. def preprocess(self, images, alignment=True):
  127. """
  128. 数据预处理
  129. :param images: BGR images
  130. :param alignment: 车牌倾斜矫正
  131. :return:
  132. """
  133. if not isinstance(images, list): images = [images]
  134. if alignment: images = self.plates_correction(images)
  135. image_tensors = []
  136. for img in images:
  137. if len(img.shape) == 2: img = cv2.cvtColor(img, cv2.COLOR_GRAY2BGR)
  138. image_tensor = self.transform(img)
  139. image_tensors.append(torch.unsqueeze(image_tensor, dim=0))
  140. image_tensors = torch.cat(image_tensors)
  141. return image_tensors
  142. def postprocess(self, outputs):
  143. """
  144. 车牌识别后处理
  145. :param outputs:
  146. :return:
  147. """
  148. pred_labels = []
  149. for output in outputs:
  150. label = 0
  151. pred_label = []
  152. for i in range(len(output)):
  153. if output[i] != 0 and output[i] != label:
  154. pred_label.append(output[i])
  155. label = output[i]
  156. pred_labels.append(pred_label)
  157. return pred_labels
  158. def map_class_name(self, pred_labels):
  159. """
  160. :param pred_labels:
  161. :return:
  162. """
  163. pred_names = []
  164. for preb_label in pred_labels:
  165. preb_label = [self.class_name[int(l)] for l in preb_label]
  166. pred_names.append("".join(preb_label))
  167. return pred_names
  168. def draw_result(self, image, result: dict, thickness=4, fontScale=0.6):
  169. """绘制车牌识别结果"""
  170. dets = result["dets"]
  171. if len(dets) > 0:
  172. boxes = dets[:, 0:4]
  173. score = dets[:, 4]
  174. plates = result["plates"]
  175. boxes_name = ["{} {:3.3f}".format(n, s) for n, s in zip(plates, score)]
  176. image = image_utils.draw_image_bboxes_text(image, boxes=boxes, boxes_name=boxes_name, drawType="chinese",
  177. color=(0, 0, 255), thickness=thickness, fontScale=fontScale)
  178. return image
  179. def start_capture(self, video_file, save_video=None, detect_freq=1, vis=True):
  180. """
  181. start capture video
  182. :param video_file: *.avi,*.mp4,...
  183. :param save_video: *.avi
  184. :param detect_freq:
  185. :return:
  186. """
  187. video_cap = image_utils.get_video_capture(video_file)
  188. width, height, numFrames, fps = image_utils.get_video_info(video_cap)
  189. if save_video:
  190. self.video_writer = image_utils.get_video_writer(save_video, width, height, fps)
  191. count = 0
  192. while True:
  193. if count % detect_freq == 0:
  194. # 设置抽帧的位置
  195. if isinstance(video_file, str): video_cap.set(cv2.CAP_PROP_POS_FRAMES, count)
  196. isSuccess, frame = video_cap.read()
  197. if not isSuccess:
  198. break
  199. result = self.plates_recognize(frame)
  200. frame = self.draw_result(frame, result, thickness=5, fontScale=0.8)
  201. if vis:
  202. image_utils.cv_show_image("image", frame, use_rgb=False, delay=30)
  203. if save_video:
  204. self.video_writer.write(frame)
  205. count += 1
  206. video_cap.release()
  207. def detect_image_dir(self, image_dir, out_dir=None, vis=True):
  208. """
  209. :param image_dir: 车牌图片目录
  210. :param out_dir:
  211. :param vis:
  212. :return:
  213. """
  214. image_list = file_utils.get_files_lists(image_dir)
  215. for image_file in image_list:
  216. image = image_utils.read_image_ch(image_file, use_rgb=False) # BGR image
  217. result = self.plates_recognize(image)
  218. print("file:{}=\n{}".format(image_file, result))
  219. image = self.draw_result(image, result)
  220. if vis:
  221. image_utils.cv_show_image("image", image, use_rgb=False)
  222. if out_dir:
  223. out_file = file_utils.create_dir(out_dir, None, os.path.basename(image_file))
  224. cv2.imwrite(out_file, image)
  225. def get_argparse():
  226. image_dir = 'data/test_image' # 测试图片
  227. video_file = "data/test-video2.mp4" # path/to/video.mp4 测试视频文件,如*.mp4,*.avi等
  228. # model_file = 'data/weight/PlateNet_Perspective_20230104102743/model/best_model_186_0.9583.pth'
  229. # net_type = "PlateNet"
  230. model_file = 'data/weight/CRNN_Perspective_20230113174750/model/best_model_146_0.9343.pth'
  231. net_type = "CRNN"
  232. out_dir = "output/test-result" # 保存检测结果
  233. parser = argparse.ArgumentParser()
  234. parser.add_argument('--model_file', type=str, default=model_file, help='path/to/model.pth')
  235. parser.add_argument('--net_type', type=str, default=net_type, help='set model type')
  236. parser.add_argument('--video_file', type=str, default=None, help='camera id or video file')
  237. parser.add_argument('--image_dir', type=str, default=image_dir, help='path/to/image-dir')
  238. parser.add_argument('--out_dir', type=str, default=out_dir, help='save result image directory')
  239. parser.add_argument('--use_detector', action='store_true', help='whether to detect plate', default=True)
  240. parser.add_argument('--export', action='store_true', help='whether to export ONNX', default=True)
  241. cfg = parser.parse_args()
  242. return cfg
  243. if __name__ == '__main__':
  244. opt = get_argparse()
  245. d = Recognizer(model_file=opt.model_file, net_type=opt.net_type, use_detector=opt.use_detector, export=opt.export)
  246. if isinstance(opt.video_file, str):
  247. if len(opt.video_file) == 1: opt.video_file = int(opt.video_file)
  248. save_video = os.path.join(opt.out_dir, "result.avi") if opt.out_dir else None
  249. d.start_capture(opt.video_file, save_video, detect_freq=1, vis=True)
  250. else:
  251. d.detect_image_dir(opt.image_dir, out_dir=opt.out_dir, vis=True)
  • 测试CRNN模型
python demo.py --image_dir data/test_image --model_file data/weight/CRNN_Perspective_20230113174750/model/best_model_146_0.9343.pth --net_type CRNN --use_detector
  • 测试LPRNet模型
python demo.py --image_dir data/test_image --model_file data/weight/LPRNet_Perspective_20230104142632/model/best_model_011_0.9393.pth --net_type LPRNet --use_detector
  • 测试PlateNet模型
python demo.py --image_dir data/test_image --model_file data/weight/PlateNet_Perspective_20230104102743/model/best_model_186_0.9583.pth --net_type PlateNet --use_detector
  • 测试视频文件
python demo.py --video_file data/test-video.mp4 --model_file data/weight/PlateNet_Perspective_20230104102743/model/best_model_186_0.9583.pth --net_type PlateNet --use_detector
  • 测试摄像头
  1. # video_file=0 # 测试摄像头ID
  2. python demo.py --video_file 0 --model_file data/weight/PlateNet_Perspective_20230104102743/model/best_model_186_0.9583.pth --net_type PlateNet --use_detector

 车牌识别Demo效果展示:


7. 车牌识别效果(Android版本)

已经完成Android版本车牌检测和识别算法开发,APP在普通Android手机上可以达到实时的检测和识别效果,CPU(4线程)约30ms左右,GPU约25ms左右 ,基本满足业务的性能需求。详细说明请查看:智能驾驶 车牌检测和识别(四)《Android实现车牌检测和识别(可实时识别车牌)》https://blog.csdn.net/guyuealian/article/details/128704242

Android Demo体验:https://download.csdn.net/download/guyuealian/87400593

8. 车牌识别项目源码下载

整套项目源码内容包含:车牌识别数据集 +车牌识别训练代码和测试代码(Pytorch)

整套项目下载地址:智能驾驶 车牌检测和识别(三)《CRNN和LPRNet实现车牌识别(含车牌识别数据集和训练代码)》

(1)CCPD车牌识别数据集:

智能驾驶 车牌检测和识别(一)《CCPD车牌数据集》_AI吃大瓜的博客-CSDN博客

  • CCPD2019:官方原始数据,主要是蓝牌数据,约34W;
  • CCPD2020:官方原始数据,主要是新能源绿牌数据,约1万
  • CCPD2019-voc:将数据集CCPD2019转换为VOC数据格式(数据在Annotations,JPEGImages文件夹),可直接用于目标检测模型训练
  • CCPD2020-voc:将数据集CCPD2020转换为VOC数据格式(数据在Annotations,JPEGImages文件夹),可直接用于目标检测模型训练
  • 为了方便后续训练车牌识别模型,数据集提供已经裁剪好的车牌图片,并放在plates文件夹

(2)车牌识别训练代码和测试代码(Pytorch)

  • 车牌识别训练代码,backbone支持CRNN,LPRNet和PlateNet模型,提供pretrained模型
  • train.py训练简单,简单配置config文件,即可开始训练
  • 项目支持Re-Sampling机制,配置文件设置resample=True即可,可减小数据长尾问题的影响
  • demo.py支持图片,视频和摄像头测试;
  • demo.py支持导出onnx文件(export=True)
  • demo.py支持车牌倾斜矫正( alignment=True)
  • 提供已经训练好的车牌检测YOLOv5模型(modules/yolov5),可直接用于车牌检测

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/459490
推荐阅读
相关标签
  

闽ICP备14008679号