当前位置:   article > 正文

VL-Adapter: 针对视觉和语言(Vision-and-Language)的参数高效迁移学习_vl-adapter: parameter-efficient transfer learning

vl-adapter: parameter-efficient transfer learning for vision-and-language ta

VL-ADAPTER: Parameter-Efficient Transfer Learning for Vision-and-Language Tasks

22年发表在CVPR
UNC大学

Abstract

将介绍VL-BART和VL-T5这两个模型(adapter-based parameter-efficient transfer learning techniques)
评估这俩模型通过一个统一的多任务设置。
对于image-test使用VQAv2、GQA、NLVR2和MSCOCO这四个数据集
对于video-text使用TVQA、How2QA、TVC和YC2C这四个数据集。
把adapter-tuning(adapter、Hyperformer、Compacter)和fine-tuning和prompt-tuning 进行对比。
结果表明 adapter-tuning4.18%i-t任务和3.39%v-t任务可以达到fine-tuning整体模型的效果。

Introduction

大模型预训练模型已经成了解决V&L任务的标准框架。
通常是vision encoders和language model的结合,然后经过fine-tuning去解决下游任务。
为了解决大模型tuning的难度提出来了很多 parameter-efficient training方法。
Adapter对于大模型进行一小部分的训练就可以达到full fine-tuning的效果。
即使adapter已经对文本分类和Image-text alignment(图像文本对齐)问题有了一些成功的效果,但是对于下游更有挑战的V&L问题如视觉/视频问答和图像/视频字幕等却没有人做。文章作者将做这个问题。
作者使用了CLIP一个image-text对求的模型作为视觉编码器(visual encoder)为了对于V&L模型做预训练。
为了告知模型的任务,将做一些 text prompts 例如:例如,vqa的“vqa:[Q]” VQA是Visual Question Answering(视觉问答)。
然后对模型插入一些Adapter以及其变体 HyperformerCompacter,进行parameter-efficient training。
作者对于这两个变体的解释是:Hyperformer通过超网络生成适配器的权重来提高适配器的效率,而Compacter通过利用Kronecker产品和适配器权重的低阶参数化来减少参数。
具体看这两个技术可以看论文中的引用。
作者说根据adapter的一些方法可以实现一些cross-task(跨任务)学习,可以进一步减少训练量。
对于作者所说的对于上述的技术进行在abstract的四个i-t任务和四个v-t任务中的表现:
Compactor的表现并不突出,因为去除了 low-rank approximation for trading performance。
Hyperformeradapter高效,使用权重共享(weight-sharing)技术进行adapter训练可以实现与完全微调相同的性能,同时图像文本任务仅更新4.18%的整个参数(视频文本任务更新3.39%)。
对CLIP中的元素进行fine-tuning(进行调整训练的元素)和freezing(不进行训练更改的元素)进行了对比,后者的在表现和元素高效性方面平衡的更好。
在最佳的V&L模型上进行adapter最后的效果可以完美匹配甚至超过full fine-tuning的模型。
作者所说的工作总结 直接贴在这里了:
Our contributions could be summarized as: (1) the first
work benchmarking different types of parameter-efficient
training techniques (Adapter, Hyperformer and Compacter)
for diverse challenging downstream image-text and video text tasks; (2) empirical demonstration of adapters reaching the performance of full fine-tuning while updating only
3.39-4.18% of the parameters; (3) comprehensive analysis
on the design of freezing CLIP, impact of different architectural components, weight-sharing techniques, task-specific
prompts, and vision-language pretraining.(我们的贡献可以总结为:(1)首次针对不同类型的参数高效训练技术(Adapter、Hyperformer和Compacter),针对具有挑战性的下游图像文本和视频文本任务进行基准测试;(2) 经验证明,适配器在仅更新3.39-4.18%的参数的情况下达到了完全微调的性能;(3) 全面分析冷冻CLIP的设计、不同结构组件的影响、权重分配技术、任务特定提示和视觉语言预训练。
)

Related Work

这篇文章的工作是基于以前模型和一些有效训练的工作基础上的,将介绍以前的文献以及技术上的异同。
CLIP:用于多模态的网络,CLIP模型使用了一个共享的视觉-语言嵌入空间,其中图像和文本通过一个统一的编码器转换为嵌入向量。这个编码器是由一个图像模块和一个文本模块组成,它们共享参数,以便在两个模态之间建立联系。CLIP模型通过最大化正样本对(包含相似的图像和文本)的相似度,并最小化负样本对(包含不相似的图像和文本)的相似度来进行训练。这种对比学习的训练方式使得CLIP能够学习到图像和文本之间的语义对齐,使得在嵌入空间中具有相似语义的图像和文本靠近。CLIP模型在多个视觉和语言任务上表现出色,包括图像分类、图像生成描述、图像问答等。它的独特之处在于它能够在没有任何标注数据的情况下进行训练,并且具有较强的泛化能力,能够在不同任务上进行迁移学习。
我们的V&L模型是CLIP和BART(或T5)的组合。
下述Section5.2表示了adapter的重要性
讲了参数高效训练:(1)加参数训练(adapter)。(2)只更新模型的一小部分参数训练。(3)weight矩阵降秩训练。
本文针对(1)进行更下游的visual/video question answering, visual reasoning, and image/video captioning任务。即:
视觉/视频问答(Visual/VideoQuestionAnswering):这个任务旨在让计算机通过对图像或视频提出的问题进行回答。计算机需要理解问题的语义,并从图像或视频中提取相关信息来给出准确的答案。这个任务要求计算机具备对视觉和语言信息的联合理解能力。视觉推理(VisualReasoning):视觉推理任务要求计算机在处理视觉信息时进行逻辑推理和推断。这包括根据图像中的特定属性或关系回答问题,预测对象的位置、数量或状态等。视觉推理任务旨在培养计算机在视觉领域进行逻辑推理和推断的能力。
图像/视频描述(Image/VideoCaptioning):这个任务涉及到给定一张图像或一段视频,生成描述性的自然语言文本来准确表达其内容。计算机需要理解图像或视频的语义,并使用恰当的语言描述来表达场景、对象和动作等。
在这篇文章中,更新的点是,对于adapter-tuning之类的问题,加的adapter都是针对模型的训练,所以在针对不同模型的时候没有共享性,
所以提出一个 plug-and-play(热插拔)的adapter进行可共享的adapter,减少可训练参数

Methods

实验证明,vanilla adapter效果最好。We further demonstrate that sharing adapters across tasks can boost performance to match full fine-tuning results and further improve the parameter efficiency。(跨模型adapter的可行性)。
我们的V&L模型是CLIP和BART(T5)的组合,因此我们将我们的基础架构命名为CLIP-BART(CLIP-T5)。

Unified Framework for V&L Tasks

用encoder-decoder模型作为我们的生成模型。
CLIP做视觉到语言的投影,并把生成的语言放到encoder-decoder模型中。
这里讲了个在V&L中统一用的交叉熵损失函数,没理解作者的意图。

在这里插入图片描述
对于后续的函数表达式做了描述。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/877590
推荐阅读
相关标签