赞
踩
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
在上一篇文章中,我们介绍了5个提示工程方法论和框架,今天,我们将继续向大家介绍其它的5个提示工程方法论和框架。
提示工程技术大概可以分成四类:
在上一篇文章中,我们介绍了(下图中标有(1)的部分):
这篇文章将继续介绍其它的方法论和框架,包括:
请看下方标有✅的部分(标有(3)的部分将在下一篇文章介绍)。
以下是它们各自的发布时间线:
自动提示工程师(APE)是一种用于自动生成(而不是依赖人工编写)和选择指令的框架。它的目标是通过为特定任务自动生成和选择最合适的指令来提高大型语言模型(LLMs)的性能。
APE由一个推理模型和一个目标模型组成。推理模型生成指令候选,目标模型评估这些指令候选的性能。
推理模型使用一个额外的提示,通过提供输出示例来生成指令候选。这个提示被称为指令模板(instruction template)。指令模板是一个预先定义的指令结构,它指导推理模型生成指令候选。目标模型使用指令候选执行任务,并计算它们的性能。
推理模型和目标模型通过一个评估函数(evaluation function)进行交互。评估函数接收指令候选和任务结果作为输入,并计算它们的性能。性能可以是任何指标,例如准确率、召回率或F1分数。
举个例子,考虑一个任务,AI需要生成一个用于计算数字阶乘的Python函数。APE会生成多个指令候选,例如“编写一个Python函数来计算数字阶乘”、“创建一个计算给定数字阶乘的Python函数”等等。然后,目标模型执行这些指令,并选择生成最准确和高效的Python函数的指令。
APE在许多情况下表现出优于人工设计的提示的性能。例如,APE发现了一个比“让我们逐步思考”更好的零样本的CoT(Chain-of-Thought)提示。它生成的提示“让我们以逐步的方式解决这个问题,以确保我们得到了正确的答案”提高了MultiArith和GSM8K基准测试的性能。
它的主要步骤如下:
生成知识提示法(GKP)依托于大型语言模型(LLM)的强大功能,旨在创造出能够解决特定问题的知识。这个方法的核心思想是,通过LLM生成有价值的知识信息,然后把这些信息作为提示内容,和一个相关问题结合起来,用于解决具体的任务。
知识通常指的是可以被算法或模型利用来执行任务或做出决策的信息。它可以采取多种形式,包括数据,事实,规则,关系,模式,概念和经验。以下是几个例子:
这些知识形式可以通过不同方式获取和应用,例如通过训练数据集学习,通过知识库直接编码,或者通过模型的推理能力来生成和应用。知识是智能系统的核心组成部分,它使得这些系统能够理解复杂的概念,解决问题,并做出有根据的决策。
以下是生成知识提示方法的简明解析:
这种技术已成功提高了大型语言模型(LLM)在处理多种常识性推理任务上的性能,为大部分测试数据集创下了新的行业领先成果,并且无论是在未见过的数据上还是经过微调的场景中都显示出了有效性。
在《Generated Knowledge Prompting for Commonsense Reasoning》论文中,通过图示展示了这一过程:利用少量示例从一个LLM中生成与问题相关的知识声明,然后使用另一个LLM根据每条知识声明进行预测,并最终选出最有把握的预测结果。
举个例子,可以向模型提出这样的命题:“鱼能思考。知识:鱼的智慧超出外表所显示的。”模型应当根据所给的知识做出反应。
总之,生成知识提示技术通过生成作为提问部分的知识,引用知识或规律而非实例来提问,它不仅确保了模型在面对不同输入时能够保持内部状态或行为的一致性,而且在多种场合下都有应用,比如在 LangChain 中,特别是处理 CSV 格式数据时尤为有效。
思维树(ToT)框架被用于BabyAGI的任务生成代理中,其目的是提升如GPT-4等大型语言模型(LLM)的解题能力。
它的主要构成和功能:
例如,在“解决24点游戏”的任务中,模型将基于思维树来构造答案。如在24点游戏中,可以将思维划分为3个步骤,每个步骤包含一个中间等式。在每个关键点,模型会保留最优选项,并根据是否能达到24来评估每个思维候选,分为“肯定/可能/不可能”。这种方法支持那些能够在少数几次尝试中确定的准确部分解决方案,并排除那些无法实现的方案。
ToT技术的核心在于促进通过探索多种推理路径和自评选择来解决问题,允许模型根据需要进行预判或回溯,以作出全面的决策。
在BabyAGI这样的自主AI代理(Agent)中,ToT被用来根据特定目标生成和实施任务。任务完成后,BabyAGI会根据结果调整其策略,并基于之前的执行成果和总体目标规划新任务。
总结来说,思维树(ToT)提示技术为语言模型提供了一种强有力的解决问题的工具,能够系统性地探索和评价多条推理路径。在 BabyAGI 等系统中找到了应用,这些系统能够自主地生成、执行和评估任务,以达成明确的目标。
思维图(GoT)既是一种框架体系,也是一种引导技术。这种方法通过将大型语言模型(LLM)生成的信息以图的形式组织起来,从而显著提升了回答的精确性,其效果尤为突出。
在该图中:
GoT通过鼓励LLM以多样化方式整合思维、提纯思维网络到其核心,并通过反馈循环来加强思维,反映了人类认知过程的非线性本质,使得对思维序列的模拟更加真实。
GoT方法概述如下:
在进行的实践测试中,面对日益增加的挑战,如24点游戏、解决高次多项式方程、导出递归序列的公式等,GoT展现了超越GPT-4和其他先进提示方法,如思维树(ToT),的优越性能,分别在这些任务中实现了89.7%、86%和56%的准确度提高,与ToT相比,平均准确度分别提升了23%、24%和15%。
本质上,GoT通过允许大型语言模型(LLM)通过图表示来模拟、探索和增强复杂的思维过程,从而提高了LLM生成回应的准确性,确保了对所有相关思维及其相互关系的全面检查。
检索增强型生成(RAG)是一种框架,通过融合检索式模型和生成式模型的优势,致力于提升大型语言模型(LLM)输出文本的品质和相关度。它能够从外部知识库中提取信息,确保LLM输出的信息既准确又是最新的,而无需修改LLM本身。
RAG框架要点解析如下:
采用 RAG 的工具和平台包括:
RAG应用场景:
简而言之,RAG通过利用知识库中的准确和最新信息,极大地扩展了LLM的功能,使其在问答系统、内容创作等多种应用场景中,能够生成更加相关和精确的文本,并且能与多种工具和平台配合使用。
从推理到执行,ChatGPT展示了强大的能力。提示工程(Prompt Engineering)的四大类技术:基于样本提示技术、思维链技术、自动增强技术、交互与推理技术,都为AI系统提供了新的可能性。
这些技术可以广泛应用于问答系统、内容创作、任务生成代理、执行代理等多种场景,极大地扩展了大型语言模型的能力和应用范围。并且,通过不断改进和创新这些技术,我们可以预见到未来AI将会更加智能、准确和高效。
总的来说,本文对 ChatGPT 的介绍和一些相关的方法论和框架的解析,旨在为广大读者提供对这一新兴行业的深入理解和洞见。在未来的发展中,我们期待看到更多的成功应用和突破性成果,共同推动这个激动人心的领域不断向前。
推荐阅读:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。