赞
踩
摘要:二维码及条形码智能检测软件用于检测常用条形码和二维码,对其位置进行精确定位、记录并显示检测结果,辅助识别算法定位条形码或二维码。本文详细介绍二维码及条形码智能检测软件,在介绍算法原理的同时,给出Python的实现代码、训练数据集,以及PyQt的UI界面。基于YOLOv5算法实现多目标进行检测,在界面中可以选择各种图片、视频进行检测;博文提供了完整的Python代码和使用教程,适合新入门的朋友参考,完整代码资源文件请转至文末的下载链接。本博文目录如下:
二维码及条形码智能检测系统演示与介绍(Python+YOLOv5深度学习模型+清新界面)
二维码是移动互联网与物联网时代的重要入口之一,其广泛应用于物流快递、电子商务、智慧工业等场景。传统二维码识别系统往往采用非智能化图像处理技术实现单个二维码的识别,对批量二维码图像则无法处理。本文利用最新人工智能技术,通过构建适用于批量二维码识别的数据集,基于深度学习中的目标检测定位框架YOLOv5,实现了批量二维码的检测与定位,设计了一套批量二维码识别系统,解决了批量二维码的快速定位与准确识别。
本系统采用登录注册进行用户管理,对于图片、视频和摄像头捕获的实时画面,可检测医疗图像,系统支持结果记录、展示和保存,每次检测的结果记录在表格中。对此这里给出博主设计的界面,同款的简约风,功能也可以满足图片、视频和摄像头的识别检测,希望大家可以喜欢,初始界面如下图:
检测图片时的界面截图(点击图片可放大)如下图,可检测画面中存在的多个目标,也可开启摄像头或视频检测:
详细的功能演示效果参见博主的B站视频或下一节的动图演示,觉得不错的朋友敬请点赞、关注加收藏!系统UI界面的设计工作量较大,界面美化更需仔细雕琢,大家有任何建议或意见和可在下方评论交流。
首先我们还是通过动图看一下识别的效果,系统主要实现的功能是对图片、视频和摄像头画面中的二维码进行识别,识别的结果可视化显示在界面和图像中,另外提供多个目标的显示选择功能,演示效果如下。
(一)系统介绍
二维码及条形码智能检测软件主要用于日常二维码和条形码的检测定位,基于YOLOv5算法检测二维码(或条形码)的精确位置,保存和记录标记框坐标和识别类别,以辅助识别算法获取其感兴趣区域(ROI);软件提供登录注册功能,可进行用户管理;软件能够有效通过图片、视频等文件形式,检测定位二维码(或条形码)区域,并记录结果在界面表格中方便查看;可开启摄像头实时定位条形码和二维码位置,支持结果记录、展示和保存。
(二)技术特点
(1)YOLOv5目标检测算法检测定位,模型支持更换;
(2)实时定位条形码或二维码位置,展示、记录和保存情况;
(3)支持图片、视频等图像中的二维码或条形码检测;
(4)支持用户登录、注册,检测结果可视化功能;
(三)用户注册登录界面
这里设计了一个登录界面,可以注册账号和密码,然后进行登录。界面还是参考了当前流行的UI设计,左侧是一个LOGO图,右侧输入账号、密码、验证码等等。
(四)选择图片识别
系统允许选择图片文件进行检测,点击图片选择按钮图标选择图片后,显示所有识别的结果,可通过下拉选框查看单个结果,以便具体判断某一特定目标。本功能的界面展示如下图所示:
(五)视频识别效果展示
很多时候我们需要定位一段视频中的多个二维码,这里设计了视频选择功能。点击视频按钮可选择待检测的视频,系统会自动解析视频逐帧检测可能存在的多个二维码,并将二维码的分类和计数结果记录在右下角表格中,效果如下图所示:
(六)摄像头检测效果展示
在真实场景中,我们往往利用摄像头获取实时画面,并检测二维码或条形码位置,因此本文考虑到此项功能。如下图所示,点击摄像头按钮后系统进入准备状态,系统显示实时画面并开始检测画面中的二维码,识别结果展示如下图:
(一)基于YOLOv5的二维码及条形码检测
YOLOv5的整体结构如下图所示,和之前版本的Yolo类似,整个YoloV5可以依然可以分为三个部分,分别是Backbone,FPN以及Yolo Head。
Backbone可以被称作YoloV5的主干特征提取网络,根据它的结构以及之前Yolo主干的叫法,我一般叫它CSPDarknet,输入的图片首先会在CSPDarknet里面进行特征提取,提取到的特征可以被称作特征层,是输入图片的特征集合。在主干部分,我们获取了三个特征层进行下一步网络的构建,这三个特征层我称它为有效特征层。
FPN可以被称作YoloV5的加强特征提取网络,在主干部分获得的三个有效特征层会在这一部分进行特征融合,特征融合的目的是结合不同尺度的特征信息。在FPN部分,已经获得的有效特征层被用于继续提取特征。在YoloV5里依然使用到了Panet的结构,我们不仅会对特征进行上采样实现特征融合,还会对特征再次进行下采样实现特征融合。
Yolo Head是YoloV5的分类器与回归器,通过CSPDarknet和FPN,我们已经可以获得三个加强过的有效特征层。每一个特征层都有宽、高和通道数,此时我们可以将特征图看作一个又一个特征点的集合,每一个特征点都有通道数个特征。Yolo Head实际上所做的工作就是对特征点进行判断,判断特征点是否有物体与其对应。与以前版本的Yolo一样,YoloV5所用的解耦头是一起的,也就是分类和回归在一个1X1卷积里实现。
因此,整个YoloV5网络所作的工作就是 特征提取-特征加强-预测特征点对应的物体情况。整个项目的实现步骤如下图所示,首先需要配置好Python环境依赖,利用YOLOv5加载训练数据集进行训练,得到pt模型后用于UI界面中的二维码及条形码检测定位。
(二)数据集及训练
这里我们使用的二维码识别数据集,包含训练集1749张图片,验证集500张图片,测试集250张图片,共计2499张图片。部分图片和标注情况如下图所示。
每张图像均提供了图像类标记信息,图像中二维码及条形码的bounding box,二维码及条形码的关键part信息,以及二维码及条形码的属性信息,数据集并解压后得到如下的图片:
有了整理好的数据集,我们设置好训练参数便可以运行train.py文件进行训练。在深度学习中,我们通常通过损失函数下降的曲线来观察模型训练的情况。而YOLOv5训练时主要包含三个方面的损失:矩形框损失(box_loss)、置信度损失(obj_loss)和分类损失(cls_loss),在训练结束后,我们也可以在logs目录下找到生成对若干训练过程统计图。下图为博主训练二维码及条形码类识别的模型训练曲线图。
一般我们会接触到两个指标,分别是召回率recall和精度precision,两个指标p和r都是简单地从一个角度来判断模型的好坏,均是介于0到1之间的数值,其中接近于1表示模型的性能越好,接近于0表示模型的性能越差,为了综合评价目标检测的性能,一般采用均值平均密度map来进一步评估模型的好坏。我们通过设定不同的置信度的阈值,可以得到在模型在不同的阈值下所计算出的p值和r值,一般情况下,p值和r值是负相关的,绘制出来可以得到如下图所示的曲线,其中曲线的面积我们称AP,目标检测模型中每种目标可计算出一个AP值,对所有的AP值求平均则可以得到模型的mAP值。
以PR-curve为例,可以看到我们的模型在验证集上的均值平均准确率为0.793。
博主对整个系统进行了详细测试,最终开发出一版流畅得到清新界面,就是博文演示部分的展示,完整的UI界面、测试图片视频、代码文件,以及Python离线依赖包(方便安装运行,也可自行配置环境),均已打包上传,感兴趣的朋友可以通过下载链接获取。
若您想获得博文中涉及的实现完整全部程序文件(包括测试图片、视频,py, UI文件等,如下图),这里已打包上传至博主的面包多平台,见可参考博客与视频,已将所有涉及的文件同时打包到里面,点击即可运行,完整文件截图如下:
在文件夹下的资源显示如下,下面的链接中也给出了Python的离线依赖包,读者可在正确安装Anaconda和Pycharm软件后,复制离线依赖包至项目目录下进行安装,离线依赖的使用详细演示也可见本人B站视频:win11从头安装软件和配置环境运行深度学习项目、Win10中使用pycharm和anaconda进行python环境配置教程。
注意:该代码采用Pycharm+Python3.8开发,经过测试能成功运行,运行界面的主程序为runMain.py和LoginUI.py,测试图片脚本可运行testPicture.py,测试视频脚本可运行testVideo.py。为确保程序顺利运行,请按照requirements.txt配置Python依赖包的版本。Python版本:3.8,请勿使用其他版本,详见requirements.txt文件;
完整资源中包含数据集及训练代码,环境配置与界面中文字、图片、logo等的修改方法请见视频,项目完整文件下载请见参考博客文章里面,或参考视频的简介处给出:➷➷➷
参考博客文章:https://www.cnblogs.com/sixuwuxian/p/17238147.html
参考视频演示:https://www.bilibili.com/video/BV1vc41177Ki/
离线依赖库下载链接:https://pan.baidu.com/s/1hW9z9ofV1FRSezTSj59JSg?pwd=oy4n (提取码:oy4n )
由于博主能力有限,博文中提及的方法即使经过试验,也难免会有疏漏之处。希望您能热心指出其中的错误,以便下次修改时能以一个更完美更严谨的样子,呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。