赞
踩
点击上方“小白学视觉”,选择加"星标"或“置顶”
重磅干货,第一时间送达
导读
本文为ECV2023大赛仪表盘读数识别德国冠军方案解读,包含了对赛题的分析和模型选取构建的思考过程。
1、仪表识别
对于预测仪表框与真实仪表框,计算f1-score,IoU使用0.7,此部分成绩记为score1
2、刻度点识别
对于预测关键点与真实关键点,计算RMSE,此部分成绩记为score2
3、OCR识别
对于预测的数值框,计算f1-score,IoU使用0.5,此部分成绩记为score3
4、读数识别
计算每个仪表的读数得分,并对所有仪表的得分求平均值,此部分成绩记为 score4
将上述4点得到4项成绩进行加权,最终得分:
加权的权重为配置参数,默认值为:
weight_1 = 0.1
weight_2 = 0.25
weight_3 = 0.25
weight_4 = 0.4
本次任务的仪表数据集存在以下难点:
1、仪表刻度存在遮挡、模糊等问题,影响OCR识别
2、仪表图像存在旋转、倾斜问题,影响读数测量
算法分为4个流程,首先用yolov5s模型从原图中识别出仪,接着用yolov8x-pose模型检测出仪表中的刻度线、指针的关键点,再用DBNetpp模型检测出数值框并用SATRN模型进行文本识别,最后后处理得到读数结果。
选型理由
Yolov5s网络小,速度快。虽然AP精度低,但检测的是仪表这种大目标是完全够用的。我们采用极市官方提供的yolov5s训练套件进行训练,上手简单,且仪表识别准确率达到了99.7%,效果满足实际需求。
选型理由
YOLOv8是YOLOv5团队ultralytics在今年开源的SOTA模型,引入了新的改进,进一步提升了性能和灵活性。YOLOv8 设计快速、准确且易于使用,使其成为目标检测、实例分割、图像分类和姿态估计任务的绝佳选择。
yolo-pose是估计人体姿态的一个模型,它将人体姿态分为17个关键点。
为了尽可能地提高关键点检测精度,我们使用了规模最大的YOLOv8x-pose模型。
指针关键点数据集制作
我们将指针的两个点作为其关键点,由这两个点组成的矩形框作为目标检测框,如果两个点组成的矩形框太窄,进行适当延伸。
刻度关键点数据集制作
由于每个仪表的数值框个数不同,我们将每个数值框视为同一个类别进行目标检测,每个数值框携带对应的刻度点作为其关键点。
我们采用从官网下载的预训练模型在仪表数据集上微调,将关键点权重从12提高到20。
选型理由
由于仪表尺寸大小不一,我们选用DBNetpp模型,它在DBNet模型基础上引入了多级特征聚合模块(Adaptive Scale Fusion, ASF),ASF模块由阶段注意力和空间注意力子模块构成,加强了不同尺度特征的融合,提高了处理不同尺寸图像的鲁棒性。
选型理由
SATRN模型利用self-attention机制对字符的2D空间关系进行建模,并且在FFN模块中引入卷积层,增强了模型对全局和局部特征的捕捉能力。
SATRN模型对于大曲率弯曲、大角度旋转文本依然具备足够的识别能力,在多个不规则文本数据集上达到SOTA。
将上述模型的输出采用opencv进行后处理得到读数结果,具体流程如下:
区分内外径
根据刻度点和数值框距离指针原点的距离区分内径和外径,分别进行后续处理。
确定刻度点的顺序
起点到终点的角度差值是相邻两点间角度差值中最大的,我们只需要找到这个最大的角度差值,就可以确定起始点。
先将刻度点坐标转成以指针原点为中心的极坐标,根据角度从小到大排序 [16,0,4,8,12]
然后计算相邻刻度点两两间的角度差值,选择最大差值的下一个刻度点作为起点,调整顺序后 [0,4,8,12,16]
修正OCR识别结果
上图中由于指针遮挡,1500识别成500,通过等差数列对其进行修正。
透视变换
步骤:
1、确定最后一个点的坐标:已知最后一个点在透视变换后的极坐标角度为45°,假设所有刻度点距离圆心距离为R,则最后一个点的坐标可以表示为(45°,R)可以根据该极坐标得出笛卡尔坐标系下的坐标。
2、确定其他三个点的坐标:这里一共有6个间隔平分整个270°量程,所以每个刻度夹角为270/6=45°,据此可以依次计算出其他三个点在变换后的坐标。
通过这种方式,可以确定四个刻度点在透视变换后图像中的坐标,并用这些坐标来进行透视变换。
补充被指针遮挡的点
步骤:
1、首先,确定缺失点的前后点,以及它们与圆心的平均距离。这些信息将用于推算缺失点的极坐标。
2、根据前后点的角度和平均距离,计算出缺失点的极坐标。极坐标由极径和极角组成,极径表示点到圆心的距离,极角表示点在极坐标系中的角度。将缺失点的极坐标转换为笛卡尔坐标。
3、如果进行了透视变换,需要将转换后的坐标应用于透视矩阵,以获得原图中的坐标。
计算读数
确定指针的前后刻度点位置,并记录它们在极坐标系中的角度值。假设前刻度点角度为 , 后刻度点角度为 。指针角度为 。
假设指针前刻度点的读数为 , 后刻度点读数为 , 指针读数为 * 。
其中Δr=r2-r1, Δθ=θθθθ
边框遮挡导致的刻度数字无法识别,上述算法不能很好的处理。
根据数据集分布,为内外径各建立一个list,以外径举例:
- outer_list = [
- [32, 50, 100, 150, 200],
- [0, 4, 8, 12, 16],
- [0, 2, 4, 6, 8, 10],
- [0, 1, 2, 3, 4, 5, 6],
- [0, 0.2, 0.4, 0.6, 0.8, 1],
- [0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6],
- [0, 2, 4, 6, 8, 10, 12, 14],
- [0, 10, 20, 30, 40, 50, 60],
- [0, 1000, 2000, 3000, 4000, 5000, 6000],
- [0, 100, 200, 300, 400, 500, 600, 700, 800, 860]
- ]
将左图中识别的外径[0,100,200,300,400,500,600]与该outer_list进行匹配,得到最接近的[0,100,200,300,400,500,600,700,800,860]。即可对照模板将遗漏的刻度点补全。
最终,我们方案的成绩如下。
优点:
1、目标检测算法和ocr识别算法均源自开源算法库中SOTA模型,实现简单高效,且具备丰富的工业部署落地支持。
2、没有采用传统直线检测的方式检测关键点,通过类似姿态估计的方式提高了关键点检测精度。
3、提出了一种基于查表的鲁棒仪表读数方法,对于遮挡严重的情况也能较好地处理。
4、通过透视变换,将形变的仪表图像修正,使得读数更加准确。
可提升点:
1、将模型文件转换为TensorRT格式,加速推理。
2、更改ocr识别模型,提升效率。
- 下载1:OpenCV-Contrib扩展模块中文版教程
-
- 在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。
-
-
- 下载2:Python视觉实战项目52讲
- 在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。
-
-
- 下载3:OpenCV实战项目20讲
- 在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。
-
-
- 交流群
-
- 欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。