当前位置:   article > 正文

通过符号程序搜索提升prompt工程

通过符号程序搜索提升prompt工程

原文地址:supercharging-prompt-engineering-via-symbolic-program-search

通过自动探索​​大量提示变体来找到更好的提示

2024 年 4 月 22 日

众所周知,LLMs的成功在很大程度上仍然取决于我们用正确的指导和例子来提示他们的能力。随着新一代LLMs变得越来越强大,提示已经变得足够复杂,足以被视为课程本身。这些提示程序很像菜谱——都有一套遵循和转换原材料的指令,无论是数据还是成分。

因此,提示工程类似于改进配方。家庭厨师通常会坚持整体食谱,但会做出一些小改变—例如在面食中省略大蒜或添加欧芹。像DSPy这样的框架在优化上下文示例时遵循这个整体范例。然而,专业级厨师以食谱为灵感,经常完全重新诠释菜肴的成分。例如,他们可能将面食中的意大利面视为淀粉成分,并可能将其替换为新鲜制作的面疙瘩以获得类似的成分。

是什么让专业级厨师能够如此富有创意地工作?他们以抽象的方式思考食谱,就像上面的意大利面例子一样。手动提示工程类似于专业级烹饪。它可以获得令人印象深刻的结果,但需要大量的时间和知识。我们真正想要的是手动提示工程的创造力,但又不需要付出努力。

抽象提示的力量

假设我们想改进一个用于标注说话人回答的提示。我们最终会用许多不同的输入来运行它,但现在先插入一个具体的输入:

  1. Instructions: Does Speaker 2's answer mean yes or no?
  2. Output labels: no, yes
  3. Input: Speaker 1: "You do this often?" Speaker 2: "It's my first time."
  4. Output:

暂且假设我们有一个抽象的提示表示法,它可以抽出不同的组成部分,并且易于操作。也许可以这样:

5

有了它,你就可以自动完成在及时原型开发过程中必须进行的大量(半)手工修补工作。进行诸如转述之类的小编辑只是一个开始。想试试思维链推理吗?添加一段 “让我们逐步思考”。将数据格式改为 JSON 格式如何?只需更改 InputData 参数的 formatattribute 即可。你还可以探索:

  • 从单一示例到批量注释
  • 在 RAG 场景中更改检索器和排序功能
  • 重新排列某些段落的顺序
  • 压缩说明的某些部分
  • ETC

从本质上讲,你可以输入你最喜欢的提示工程启发式。这种抽象的提示表示法让我们能够真正发挥创意,自动探索大量可能的提示。

将提示转化为抽象程序

要表示抽象提示符,我们首先要将其转换为非符号提示符程序,将其分解为单独的组件,以 Python 类的形式实现:

  1. class Component:
  2.     def __init__(self, **kwargs): pass
  3. class Metaprompt(Component): pass
  4. class Paragraph(Component): pass
  5. class InputData(Component): pass
  6.     
  7. prompt = Metaprompt(
  8.     children=[
  9.         Paragraph(text="Instructions: "),
  10.         Paragraph(
  11.             id="instructions",
  12.             text="Does Speaker 2's answer mean yes or no?",
  13.         ),
  14.         Paragraph(id="labels", text="Output labels: yes, no"),
  15.         InputData(),
  16.         Paragraph(text="Output: "),
  17.     ]
  18. )

到目前为止,一切顺利。这与 DSpy 所做的工作类似,但更为通用,因为我们还表示了提示符的内部结构。

接下来,我们要把它变成一个符号提示程序,这样就可以进行任意修改(这也超出了静态 DSPy 程序的范围)。pyGlove 将 Python 类转化为可操作的符号对象,其属性在实例化后仍可完全编辑。

有了 pyGlove,我们只需添加 pg.symbolize 装饰器即可:

  1. import pyglove as pg
  2. @pg.symbolize
  3. class Component:
  4.     def __init__(self, **kwargs): pass

现在,我们可以通过大量的说明符来查询和修改提示程序,就像使用 DOM 树一样。比方说,我们想把上面的程序转化为下面的程序:

6

请注意,我们现在问的是 "回答是否表示是?",而不是提供 "是 "和 "否 "的输出标签。为此,我们需要 (i) 更改指令文本,(ii) 删除第三个节点。有了 pyGlove,这就很容易了:

  1. prompt.rebind({'children[1].text': 'Does the response mean yes?'})'children[1].text': 'Does the response mean yes?'})
  2. prompt.rebind({'children[2]': pg.MISSING_VALUE})
  3. print(prompt)

打印输出确认我们成功了:

  1. Metaprompt(
  2.   children = [
  3.     0 : Paragraph(
  4.       text = 'Instructions: '
  5.     ),
  6.     1 : Paragraph(
  7.       id = 'instructions',
  8.       text = 'Does the response mean yes?'
  9.     ),
  10.     2 : InputData(),
  11.     3 : Paragraph(
  12.       text = 'Output: '
  13.     )
  14.   ]
  15. )

就是这样!从根本上说,pyGlove 给了我们一种处理 Python 类(和函数)的方法,就像处理源代码一样,而且开销很小。现在,我们有了灵活且易于操作的表示法,让我们来使用它们吧。

等一下。我们现在可能有了表示和修改提示的方法,但还缺少一个自动优化提示的过程。

一旦厨师们了解了菜谱的抽象概念和组成部分,他们就会尝试多种变体,改进口味、成本或表现形式,直到感觉合适为止。要对提示抽象进行同样的处理,我们需要一种搜索算法、一个目标以及一组标注样本,这样才能知道我们是否取得了进展。

使用 SAMMO 调整指令

为了说明 SAMMO 的核心工作流程,我们现在将展示如何调整上面提示示例中的指令部分。一旦我们完成了这个玩具示例,我们就可以讨论更高级的应用,如 RAG 优化或压缩。

关键步骤如下:

  1. 确定起始提示
  2. 准备好数据--几百个带标签的示例就足够了。
  3. 确定目标
  4. 选择一组突变体
  5. 运行优化

步骤 1:定义开始提示

这一步我们在上文已经做得差不多了。SAMMO 期望使用一个函数,因此我们必须将其封装为一个函数。如果你想存储额外的信息,可以用 Callable 代替。我们还将把它封装在一个输出组件中以运行它。

  1. def starting_prompt():
  2.     instructions = MetaPrompt(
  3.         Paragraph(text="Instructions: "),
  4.         Paragraph(
  5.             id="instructions",
  6.             text="Does Speaker 2's answer mean yes or no?",
  7.         ),
  8.         Paragraph(id="labels", text="Output labels: yes, no"),
  9.         InputData(),
  10.         Paragraph(text="Output: "),
  11.     )
  12.     return Output(instructions.with_extractor())

步骤 2:准备好数据

SAMMO 使用名为 DataTable 的简单数据结构将输入与输出(标签)配对。这将有助于我们进行评估和记账。

  1. mydata = DataTable.from_records(
  2.     records, # list of {"input": <>, "output": <>}# list of {"input": <>, "output": <>}
  3.     constants={"instructions": default_instructions}, 
  4. )

步骤 3:确定目标

我们感兴趣的是优化精确度,因此这就是我们下面要实现的目标:

  1. def accuracy(y_true: DataTable, y_pred: DataTable) -> EvaluationScore:
  2.     y_true = y_true.outputs.normalized_values()
  3.     y_pred = y_pred.outputs.normalized_values()
  4.     n_correct = sum([y_p == y_t for y_p, y_t in zip(y_pred, y_true)])
  5.     return EvaluationScore(n_correct / len(y_true))

步骤 4:选择一组突变体

在这里,你可以尽情发挥自己的创造力。你可以实现自己的运算符来生成新的提示变体,也可以简单地依赖 SAMMO 提供的预置变异运算符。

在下文中,我们将采用后者,从一些标注的示例中混合使用转述和诱导指令,基本上实现了自动提示工程(APE)。

  1. mutation_operators = BagOfMutators(
  2.     starting_prompt=StartingPrompt(d_train),
  3.     InduceInstructions({"id": "instructions"}, d_train),"id": "instructions"}, d_train),
  4.     Paraphrase({"id": "instructions"}),
  5. )

步骤 5:运行优化

  1. runner = OpenAIChat(
  2.     model_id="gpt-3.5-turbo-16k","gpt-3.5-turbo-16k",
  3.     api_config={"api_key": YOUR_KEY},
  4.     cache="cache.tsv",
  5. )
  6. prompt_optimizer = BeamSearch(runner, mutation_operators, accuracy, depth=6)
  7. transformed = prompt_optimizer.fit_transform(d_train)

介绍性提示示例实际上取自 BigBench 含义任务,我们将用它来运行本实验。如果使用 100 个样本进行训练和测试,并以 48 个候选评估为预算进行优化,你会发现 SAMMO 将起始提示的准确率从 0.56 提高到了 0.77 - 提高了 37.5%。哪些指令效果最好?

  1. ...
  2. Paragraph(
  3.     "Consider the dialogue, context, and background ""Consider the dialogue, context, and background "
  4.     "information provided to determine the most suitable output label",
  5.     id="instructions",
  6. )
  7. ...

有趣的是,不同的 LLM 喜欢的指令大相径庭。如上所述,GPT-3.5 最喜欢通用指示。在相同的训练和预算设置下,SAMMO 选择的 Llama-2 最佳提示在指令部分使用了空字符串:

  1. ...
  2. Paragraph(
  3.     "","",
  4.     id="instructions",
  5. )
  6. ...

实际操作: RAG 调整

现在,我们将展示如何将 RAG 管道转换为符号程序,并使用 SAMMO 对其进行调整。我们将使用语义解析作为应用任务,将用户查询转化为特定领域语言 (DSL) 结构,例如,查询某些数据库或调用外部 API。

为了创建起始提示,我们列出了所有运算符的列表,使用基于嵌入的检索器获取五个少量示例,然后指示 LLM 以与示例相同的格式输出答案。

  1. class RagStartingPrompt:
  2.     def __init__(self, dtrain, examples, embedding_runner):
  3.         self._examples = examples
  4.         self._dtrain = dtrain
  5.         self._embedding_runner = embedding_runner
  6.     def __call__(self, return_raw=False):
  7.         structure = [
  8.             Section("Syntax", self._dtrain.constants["list_of_operators"]),
  9.             Section(
  10.                 "Examples",
  11.                 EmbeddingFewshotExamples(
  12.                     self._embedding_runner, self._examples, 5
  13.                 ),
  14.             ),
  15.             Section(
  16.                 "Complete and output in the same format as above",
  17.                 InputData(),
  18.             ),
  19.         ]
  20.         instructions = MetaPrompt(
  21.             structure,
  22.             render_as="markdown",
  23.             data_formatter=JSONDataFormatter(),
  24.         )  
  25.         return Output(
  26.             instructions.with_extractor(),
  27.             on_error="empty_result",
  28.         )

现在我们有了一个符号程序,让我们发挥创意吧。对于突变,我们探索:

  • 不同数量的少量示例
  • 少量示例的不同格式(XML、JSON、逐行格式
  • 是否提供有关 DSL 的附加信息
  • 显示输入输出对或输入输出组

使用这些示例和总共 24 个候选示例运行 SAMMO,我们可以看到一个明显的趋势。以下是四个不同 LLM 的三个不同数据集的测试集准确率。在绝大多数情况下,我们可以看到 SAMMO 可以大幅提升性能,即使是性能最高的 LLM 也不例外。

7

结论

将提示语转换为符号程序是一个非常强大的想法,可以探索可能的提示语和设置的巨大设计空间。就像专业厨师通过解构和重新诠释食谱来进行烹饪创新一样,符号编程也能让我们在自动提示工程中发挥同样的创造力和实验精神。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/534917
推荐阅读
相关标签
  

闽ICP备14008679号