赞
踩
提出了一种基于prompt对齐的梯度的引导方法(ProGrad),来应对prompt学习中添加的不正确偏置的问题。在tuning的过程中进行一种正则化,来确保这一步的tuning不和原本的知识(zero-shot CLIP)产生冲突。
由CoOp进行学习的域特殊方向,加强其在当前数据下的精度的优化方向,但是这可能导致过拟合。用一个一般普通的prompt和zero-shot CLIP的logits计算一个KL散度,这个KL散度回传的梯度作为一般方向。
L
c
e
L_{ce}
Lce:模型预测
p
(
t
i
∣
x
)
p(t_i|x)
p(ti∣x)与真实值
y
y
y的交叉熵损失
L k l L_{kl} Lkl:模型预测 p ( t i ∣ x ) p(t_i|x) p(ti∣x)与zero-shot CLIP预测 p z s ( w i ∣ x ) p_{zs}(w_i|x) pzs(wi∣x)的KL散度
G d G_d Gd和 G g G_g Gg的关系:
在本文CoOp中,我们没有使用
G
d
G_d
Gd来更新上下文向量,而是使用
G
p
r
o
g
r
a
d
G_{prograd}
Gprograd来优化,可以避免过拟合:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。