当前位置:   article > 正文

AMiner通过AI技术,对计算机视觉国际大会(ICCV, International Conference on Computer Vision)收录的会议论文进行了分类整理_pyramid vision transformer是哪个会议

pyramid vision transformer是哪个会议

AMiner-ICCV 2021 https://www.aminer.cn/conf/iccv2021
1、论文名称:Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions
论文链接:https://www.aminer.cn/pub/6037844c91e011d7c73cd4b7
尽管使用卷积神经网络 (CNN) 作为主干在计算机视觉中取得了巨大成功,但这项工作研究了一个简单的主干网络,可用于许多没有卷积的密集预测任务。与最近提出的专为图像分类设计的Transformer模型(例如ViT)不同,我们提出了Pyramid Vision Transformer(PVT),它克服了将 Transformer 移植到各种密集预测任务的困难。与现有技术相比,PVT有几个优点。 (1)与通常具有低分辨率输出和高计算和内存成本的ViT不同,PVT不仅可以在图像的密集分区上进行训练以获得高输出分辨率,这对于密集预测很重要,而且还可以使用渐进式收缩金字塔以减少大型特征图的计算。(2) PVT继承了CNN和Transformer的优点,通过简单的替换CNN的backbone,使其在没有卷积的各种视觉任务中成为统一的backbone。 (3) 我们通过进行大量实验来验证 PVT,表明它提高了许多下游任务的性能,例如对象检测、语义和实例分割。例如,在参数数量相当的情况下,RetinaNet+PVT 在COCO数据集上实现了 40.4 AP,超过RetinNet+ResNet50(36.3 AP)4.1个绝对 AP。我们希望PVT可以作为像素级预测的替代和有用的骨干,并促进未来的研究。
在这里插入图片描述
在这里插入图片描述
2、论文名称:Rethinking and Improving Relative Position Encoding for Vision Transformer
论文链接:https://www.aminer.cn/pub/610131506750f855fce48f6a
相对位置编码 (RPE) 对于转换器捕获输入标记的序列排序很重要。已在自然语言处理中证明了一般功效。然而,在计算机视觉中,它的功效并没有得到很好的研究,甚至还存在争议,例如,相对位置编码是否可以和绝对位置一样有效?为了澄清这一点,我们首先回顾现有的相对位置编码方法,并分析它们在视觉变换器中应用时的优缺点。然后我们提出了专门用于 2D图像的新的相对位置编码方法,称为图像RPE (iRPE)。我们的方法考虑了定向相对距离建模以及查询和自注意力机制中的相对位置嵌入之间的相互作用。建议的iRPE方法简单且轻量级。它们可以轻松插入变压器块。实验表明,仅由于提出的编码方法,DeiT [22]和DETR [1]在ImageNet上比其原始版本获得了高达1.5%(top-1 Acc)和1.3%(mAP)的稳定改进和COCO,无需调整任何额外的超参数,例如学习率和权重衰减。我们的消融和分析也产生了有趣的发现,其中一些与之前的结果背道而驰。

在这里插入图片描述
在这里插入图片描述
3、论文名称:Generic Attention-model Explainability for Interpreting Bi-Modal and Encoder-Decoder Transformers
论文链接:https://www.aminer.cn/pub/60643b3b91e011538305ce3b
Transformer 越来越多地主导多模态推理任务,例如视觉问答,由于它们能够使用自注意和共同注意机制将信息上下文化,从而获得最先进的结果。这些注意力模块还在其他计算机视觉任务中发挥作用,包括对象检测和图像分割。与仅使用自注意力的Transformer不同,具有共同注意力的Transformer需要并行考虑多个注意力图,以突出显示与模型输入中的预测相关的信息。在这项工作中,我们提出了第一种方法来解释任何基于Transformer的架构的预测,包括双模态Transformer和具有共同注意的Transformer。我们提供了通用解决方案并将它们应用于这些架构中最常用的三种:(1)纯自注意力,(2)自注意力与共同注意力相结合,(3)Transformers注意力。我们的方法优于所有从单一模态可解释性改编而来的现有方法。

在这里插入图片描述
在这里插入图片描述
4、论文名称:PlaneTR: Structure-Guided Transformers for 3D Plane Recovery
论文链接:https://www.aminer.cn/pub/610229955244ab9dcb8e51bf
本文提出了一种基于变换器的神经网络,即PlaneTR,用于从单个图像中同时检测和重建平面。与以前的方法不同,PlaneTR以顺序对顺序的方式联合利用上下文信息和几何结构,在一次向前传递中整体检测平面实例。具体来说,我们将几何结构表示为线段,并使用三个主要组件进行网络:(i)上下文和线段编码器,(ii)结构引导平面解码器,(iii)像素平面嵌入解码器。给定一幅图像及其检测到的线段,PlaneTR通过两个专门设计的编码器生成上下文和线段序列,然后将它们输入基于转换器的解码器,通过同时考虑上下文和全局结构线索直接预测平面实例序列。最后,计算像素嵌入,将每个像素分配到嵌入空间中最靠近它的一个预测平面实例。综合实验表明,PlaneTR在ScanNet和NYUv2数据集上实现了最先进的性能。

在这里插入图片描述
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/902186
推荐阅读
相关标签
  

闽ICP备14008679号