赞
踩
最近,NLP上又开发出了一种新的范式:Prompt。它通过定义模板来提醒下游任务模型学习的特定目标,在更少的更新参数场景下达到了和fine-tuning方法一样的效果。
具体可以看一下这篇综述文章:《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》
简单的来说,不同于fine-tuning方法,prompt范式需要给出一个定义好的模板,这个模板可以是离散的或者是连续的,来提醒模型在预训练的时候学习的知识。这是因为预训练的任务和下游任务往往差别较大,模型可能会存在特定性遗忘。
为了使用这些模型执行预测任务,使用未填充的文本字符串prompt
x
′
x'
x′,将原始输入
x
x
x进行修改。然后使用语言模型填充文本信息来获取最终字符串
x
~
\tilde{x}
x~。它允许对语言模型进行大量原始文本的预训练,并通过定义新的模板函数,使得模型能够进行few-shot和zero-shot学习,以适应几乎没有或没有标记数据的场景。
从上图可以看出,prompt方法本质上就是定义了不同的手工模板:“JDK is developed by __”,“This is a super long text. TLjDR: ”, “Birds can __”。就可以使得预训练模型适应不用的任务场景。
一直以来,监督学习(supervised learning)使用在很多机器学习任务上,这其中也包括NLP任务。由于传统的机器学习模型,不能够很好的对特征进行提取,因此在NLP任务上往往需要**特征工程(feature engineering)**进行辅助。但神经网络的出现改变了这一现状,使得原始特征可以与模型本身的训练一起学习,因此研究重点转移到神经网络结构工程(architecture engineering)上。在结构工程中,通过设计有助于学习输入特征的合适网络架构来提供归纳偏差。
年份 | NLP模型范式变化 |
---|---|
2017年以前 | 传统机器学习模型、神经网络 |
2017-2019 | 预训练 + 微调(pre-train + fine-tune) |
2019-至今 | ”预训练,prompt和预测“(pre-train,prompt and predict)范式 |
从2017-2019年开始,NLP模型引来了第一次重大的变化。从以前的监督学习,转变为**“预训练 + 微调(pre-train + fine-tune)”**范式。**在这种范式下,模型提前预训练好一个language model(LM),然后在下游任务中对文本数据进行微调预测。**由于训练LM模型所需的原始文本数据非常丰富,因此可以在大型数据集上训练这些模型,在这个过程中,可以通过LM模型学习到文本之间的通用特征。而在下游任务中,则需要引入额外的参数进行fine-tuning,以此来适应特定的任务。目前这种范式称为NLP界的主流范式,它可以在不同任务上提升模型的效果。
NLP范式从预训练+微调,已经变成了**”预训练,prompt和预测“**(pre-train,prompt and predict)范式。在这种范式中,不是通过目标工程将预先训练的LM来适应下游任务,而是重新制定下游任务,使其看起来更像在文本提示的帮助下利用原始的LM模型接近特定任务。
下面举几个例子:
通过这种方法,可以选择合适的prompts,让LM模型与预测对应的输出结果,不需要额外的特定任务训练。该方法的优点是,在给定一组适当prompts的情况下,以完全无监督方式训练的单个LM可以用于解决大量任务。然而,它还是会存在一定局限性,这种方法引入了即时工程的必要性,需要找到最合适的提示,让LM去解决任务。
下面这个图对比了NLP中的目前有的范式:
让我们先来看一下,以前NLP中监督学习的流程。
我们有输入 x x x,基于模型 P ( y ∣ x ; θ ) P(y|x;\theta) P(y∣x;θ)得到预测值 y y y。由于要学习模型参数 θ \theta θ,因此在给定输入和输出数据下,训练模型来更新参数。例如:
接下来介绍具体的prompt流程。
如上图所示,函数
f
p
r
o
m
p
t
(
⋅
)
f_{prompt}(\centerdot)
fprompt(⋅)应用在输入句子
x
x
x中得到Prompt
x
′
=
f
p
r
o
m
p
t
(
⋅
)
x'=f_{prompt}(\centerdot)
x′=fprompt(⋅)。这个函数包含以下两个步骤:
在上面例子中, x = x= x=“I love this movie”,模板为"[x] Overall, it was a [z] movie."。应用模板后会得到 x ′ = x'= x′=“I love this movie. Overall, it was a [z] movie.”。当然,这种模板不一定是指固定某些词语,也可以是一些连续性的embedding空间。如果[z]在模板中间,则称为cloze prompt,如果[z]在模板最后,则称为prefix prompt。
我们可以首先定义 Z Z Z为所有 z z z值的集合。对于分类任务来说, Z Z Z可以是{excellent, good, OK, bad, horrible}。然后可以利用预训练的LM模型预测最合适的词语。
最后,从得到的最高分数的词语中,映射到 y y y值,就可以完成整体Prompt的流程。
下图贴了具体的Prompt在不同场景上,常用的手工模板,读者可以针对不同任务进行选择:
Prompt中,最主要的一般来说是设计模板,因此目前主流门派分为:离散型prompt和连续型prompt。在后续的文章中,主要介绍自己读到的连续型prompt论文。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。