赞
踩
提出了一种名为一致性引导提示学习(Consistency-guided Prompt learning,CoPrompt)的微调方法。CoPrompt在少样本设置下微调后,可以改善大模型在下游任务中的泛化能力。CoPrompt的基本思想是在可训练模型和预训练模型的预测中添加一致性约束,以防止在下游任务上过度拟合
关键组件:
为保证大模型在小规模的下游任务(例如,少样本学习)微调的性能以及保持泛化能力,出现了多种微调方法。然而,少样本性能的提高往往会导致零样本能力的下降,主要是由于在少样本微调过程中模型对新引入的参数的严重过拟合,导致与基础模型的原始预测出现显著偏离。CoPrompt通过防止可训练模型的嵌入与预训练模型的嵌入在学习新任务时偏离过远来减少过拟合问题并提高泛化能力,在可训练模型和预训练模型之间的语言和图像分支上添加一致性约束。与自监督学习中的一致性正则化不同,扰动输入用于训练可学习编码器和预训练编码器之间保持一致。实现了从冻结的编码器到可学习的编码器间的知识蒸馏,从而在处理少样本新任务时保持了预训练基础模型的泛化能力。引入了两个额外的组件来改进所提出的一致性约束:
使用余弦距离作为预训练和可学习编码器的嵌入之间的一致性约束(实验选择度量标准,捕捉了向量之间的角度相似性,而不仅仅依赖于它们的大小)
给定模板文本“a photo of a [category]”,使用预训练的大语言模型 GPT 生成更具描述性的句子
s
k
=
ϕ
G
P
T
(
‘
a photo of a [category]
k
’
)
)
s_k=\phi_{GPT}(‘\text{a photo of a [category]}_k’))
sk=ϕGPT(‘a photo of a [category]k’))。在图像分支上,使用一个数据增强模块
δ
δ
δ来生成扰动后的图像
x
′
=
δ
(
x
)
x' = δ(x)
x′=δ(x)。约束扰动输入到预训练模型和可学习模型的嵌入之间的一致性:
适配器(两个线性层之间带有非线性的结构)添加在图像及文本编码器的顶部以变换嵌入向量
约束两个模态上嵌入之间的一致性
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。