当前位置:   article > 正文

Grounding DINO: Marrying DINO with Grounded Pre-Training for Open-Set Object Detection(论文解析)_grounding dino论文

grounding dino论文


Open-Set Object Detection:根据文字提示检测任意目标)

摘要

这篇论文介绍了一种名为"Grounding DINO"的开放域目标检测器,通过将基于Transformer的检测器DINO与Grounding预训练技术相结合,可以检测具有人类输入(如类别名称或指代表达式)的任意对象。这篇论文的关键解决方案是引入语言到封闭集检测器中,以进行开放集概念的泛化。为了有效融合语言和视觉模态,论文将封闭集检测器概念上划分为三个阶段,并提出了一种紧密融合的解决方案,其中包括特征增强器、语言引导的查询选择和跨模态解码器用于跨模态融合。尽管以前的工作主要在新颖类别上评估开放集目标检测,但本文提出在使用属性指定的对象的指代表达理解方面也进行评估。Grounding DINO在所有三种设置上表现出色,包括在COCO、LVIS、ODinW和RefCOCO/+/g等基准数据集上的性能。Grounding DINO在COCO检测零样本迁移基准测试中实现了52.5的AP,即没有来自COCO的训练数据。在使用COCO数据进行微调后,Grounding DINO的AP达到了63.0,创下了ODinW零样本基准测试的新纪录,均值AP为26.1。相关代码将会在 https://github.com/IDEA-Research/GroundingDINO 上提供。

1介绍

理解新概念是视觉智能的基本能力。在这项工作中,我们的目标是开发一个强大的系统,可以检测人类语言输入指定的任意对象,我们将其称为“开放集对象检测”。这个任务有着广泛的应用潜力,因为它可以作为通用对象检测器。例如,我们可以将它与生成模型配合进行图像编辑(如图1(b)所示)。
在这里插入图片描述
图1。(a) 封闭式目标检测要求模型检测预定义类别的对象。(b) 先前的工作将零-shot转移模型用于模型的泛化到新类别。我们提出将指称表达理解(REC)作为模型在具有属性的新对象上进行泛化的另一种评估。© 我们通过结合Grounding DINO和Stable Diffusion [42]提出了一个图像编辑应用程序。最佳视图请参考彩色图。

开放集检测的关键在于引入语言以实现对未见过对象的泛化[1, 7, 26]。例如,GLIP [26]将对象检测重新定义为短语定位任务,并引入了对象区域和语言短语之间的对比训练。它在异构数据集上表现出很大的灵活性,对于封闭集和开放集检测都表现出卓越的性能。尽管GLIP的结果令人印象深刻,但它的性能可能受到限制,因为它是基于传统的一阶段检测器Dynamic Head [5]设计的。由于开放集和封闭集检测密切相关,我们相信一个更强大的封闭集对象检测器可以实现更好的开放集检测。

受到基于Transformer的检测器取得的令人鼓舞的进展[24, 25, 31, 58]的启发,我们在这项工作中提出基于DINO [58]构建一个强大的开放集检测器。这个检测器不仅提供了最先进的对象检测性能,还允许我们通过基于预训练的方法将多层文本信息整合到其算法中。我们将这个模型命名为Grounding DINO。Grounding DINO相对于GLIP具有几个优势。首先,它基于Transformer架构,类似于语言模型,使其更容易处理图像和语言数据。例如,由于所有的图像和语言分支都是基于Transformer构建的,我们可以在整个流程中轻松地融合跨模态特征。其次,基于Transformer的检测器已经证明具有利用大规模数据集的出色能力。最后,作为一个类似DETR的模型,DINO可以进行端到端优化,而不需要使用任何硬编码的模块,如NMS(非极大值抑制),这极大简化了整体的基于Grounding的模型设计。

大多数现有的开放式检测器是通过使用语言信息将封闭式检测器扩展到开放式场景而开发的。如图2所示,封闭式检测器通常有三个重要模块,包括用于特征提取的主干、用于特征增强的颈部,以及用于区域细化(或框预测)的头部。通过学习语言感知的区域嵌入,封闭式检测器可以被推广以检测新颖的对象,使每个区域都可以在语言感知的语义空间中分类为新颖的类别。实现这一目标的关键是在颈部和/或头部的输出之间使用对比损失,用于区域输出和语言特征之间的对比。为了帮助模型对齐跨模态信息,一些研究尝试在最终的损失阶段之前融合特征。图2显示了特征融合可以在三个阶段进行:颈部(阶段A)、查询初始化(阶段B)和头部(阶段C)。例如,GLIP [26]在颈部模块中执行早期融合(阶段A),OV-DETR [56]使用语言感知查询作为头部输入(阶段B)。

在这里插入图片描述
图2. 将封闭式检测器扩展到开放式场景的现有方法。请注意,某些封闭式检测器可能仅包括图中的某些阶段。

我们认为,在模型中进行更多的特征融合可以使其性能更好。值得注意的是,检索任务更倾向于类似CLIP的双塔架构,该架构仅在最后一步执行多模态特征比较以提高效率。然而,对于开放式检测,通常为模型提供了图像和文本输入,用于指定目标对象类别或特定对象。在这种情况下,更紧密(且早期)的融合模型更适合获得更好的性能[1, 26],因为图像和文本都在一开始就可用。尽管在概念上很简单,但以

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/木道寻08/article/detail/1002951
推荐阅读
相关标签
  

闽ICP备14008679号