赞
踩
随着生成式人工智能的爆炸性普及,特别是像ChatGPT和GPT-4这样的模型,Prompt撰写已经变成了人工智能领域的一个至关重要的技能。然而,实际操作中,你会发现这并不像表面上的语法任务那么简单。一旦新鲜感消退,写Prompt需要个人的练习和思考才能迅速掌握。因此,在实际应用中,创建最有效的Prompt,也就是所谓的“Prompt工程”,已经成为了LLMs领域内外备受追捧的专业知识。这也催生了Prompt工程师这个职位。
本文将全面介绍Prompt工程,包括如何在提示中提供最有影响力的信息,介绍人物角色、正面和负面提示、零样本提示等内容,以及如何不断改进Prompt以更好地使用ChatGPT、GPT-4等大型语言模型(LLMs),以及如何与这些LLMs模型合作以完成各种任务。
Prompt工程的关键目标是在特定应用情境中实现对LLMs的高效利用。这包括创建清晰而具体的请求指令,以从语言模型中获取所需的答复。通过精心构建Prompt,我们能够引导ChatGPT生成准确而有用的回应。在构建ChatGPT的Prompt时,有一些基本原则需要牢记:
首先,要在Prompt的开头提供明确的指示,这有助于为模型设定上下文和任务。同时,明确指定所期望的答案格式也非常有益。此外,您可以通过引入系统消息或采用角色扮演技巧来增强互动。以下是一个应用了上述技巧的示例提示:
将该提示与以下提示进行比较:
直观地看,前者将获得更多有用的结果。
您可以通过迭代改进和实验提示来提高模型响应的质量和相关性,从而创建更有成效的对话。别犹豫,直接在ChatGPT上测试你的提示词。
在上一部分,我们已经简要介绍了Prompt提示词的基本概念。现在,让我们更深入地探讨一些关键的Prompt要点。
Prompt中的关键词至关重要。它们是引导LLMs生成所需答案的关键输入。换句话说,以ChatGPT等LLMs能够理解的方式表达问题非常重要。如果用户不是领域专家且不熟悉专业术语,ChatGPT等LLMs的答案可能不如预期。这就好比在网络上进行盲目搜索而不知道正确的关键词一样。
此外,虽然在Prompt中添加相关信息有助于提高效果,但过于冗长的附加信息并不一定是最佳策略。Prompt关键词虽然至关重要,但它们更应被看作连接其他关键技巧的纽带。
另一个关键要点是,Prompt应该简洁明了。它应该提供ChatGPT、GPT-4等LLMs足够的信息以理解用户意图,但不应过于冗长。然而,过于简洁的Prompt也会存在问题,因为它可能导致LLMs输入的歧义和误解。因此,在实际应用中,平衡简洁的提示词与附加信息是关键,需要不断练习以精通这一技巧。
另外,为Prompt中添加角色分配和目标设定也是一个重要策略。明确赋予LLMs的扮演角色以及任务目标会显著改善输出质量。给予LLMs一个明确的角色,可以产生更好的结果。目标与角色密切相关,它们对于引导交互的方向至关重要。
最后,正面和负面提示是指导模型输出的有效框架方法。积极提示鼓励模型生成特定类型的响应,而负面提示则阻止模型生成特定类型的响应。这些提示可以极大地影响模型输出的方向和质量。例如,给定一个积极提示:
“您将扮演一位在北京拥有10年经验的房地产经纪人,为没有经验的购房者总结港区前5的小区。”
可以通过在其中添加负面提示来限定模型的输出,比如:
“请不要包含距离最近地铁站超过徒步10分钟的小区。”
这个额外的限制有助于ChatGPT等LLMs更好地理解生成哪些具体输出。
|三、高级Prompt提示词策略
在上一节,我们重点介绍了与LLMs互动的基本Prompt策略。在本节,我们将深入探讨一系列更高级的Prompt提示词策略,这些策略将使您能够以更复杂的方式与ChatGPT等LLMs进行互动。
这些策略也是Prompt工程师经常采用的方法。
输入/输出Prompt策略在Prompt工程中扮演关键角色,因为它定义了用户提供给LLMs的输入以及LLMs生成的响应输出。这一策略直接影响着ChatGPT等LLMs响应的质量和相关性。例如,用户可能会提供一个输入提示,要求LLMs为特定任务生成Python脚本,输出将是生成的脚本。下面是一个具体示例:
零样本Prompt策略主要用于ChatGPT等LLMs在没有任何示例或上下文的情况下生成答案。它在用户需要快速回答而无法提供额外细节时,或者在主题过于广泛以至于示例会不必要地限制响应时非常有用。举例如下:
单示例Prompt策略主要用于为ChatGPT、GPT-4等LLMs提供单个示例或上下文来生成答案。这一策略有助于引导ChatGPT、GPT-4等LLMs的响应,确保其符合用户的意图。可以理解为,给模型提供一个样例总比没有提供要好。示例如下:
少样本Prompt策略主要用于为ChatGPT等LLMs提供一些示例或上下文,以生成答案。这一策略有助于引导ChatGPT、GPT-4等LLMs的响应,确保其符合用户的意图。其核心思想是,多个示例比单个示例提供更多的引导。示例如下:
正如上面例子可以看出,Prompt中包含的示例数量会直接影响生成的输出。对于零样本,可能不提供任何水果名称;在单个示例Prompt中,可能提供多个水果名称;而在少样本Prompt的情况下,输出可能完全由与水果主题相关的名称组成。
思维链Prompt策略的主要目的是为ChatGPT等LLMs提供一些示例,以完善原始问题并确保获得更准确和全面的答案。它之所以被称为"思维链Prompt",是因为提示中包含了一些思路示例。这与X-shot提示技术不同,因为思维链提示的结构旨在引导模型具备批判性思维,帮助ChatGPT等LLMs发现可能未曾考虑的新方法。
此技术还鼓励LLMs进行批判性推理。思维链Prompt的口号是“让我们一步一步思考”,通常附加在提示的末尾,研究表明这可以改善生成的结果。首先,让我们考虑一个One-shot的示例:
现在让我们看一下下面的思维链Prompt:
可以看到,通过提供解决问题的思维过程示例,并引导LLMs逐步思考,ChatGPT能够将相同的推理应用于我们的问题,并得出正确的答案。
这展示了思维链Prompt策略的有效性。
|Self-Criticism Prompt策略
自我批评策略主要引导LLMs评估其输出是否存在潜在的不准确之处或需要改进的地方。这一策略旨在确保LLMs的输出尽可能准确。它有助于用户调整提示,并确定为什么未获得符合预期的结果。以下是一个示例:
“请重新审阅您的上述回复。您能发现存在的错误吗?如果存在,请找出这些错误并进行必要的编辑。”
这个示例指导LLMs使用自我批评来调整错误的代码:
“查看您刚刚生成的代码。目前它没有运行。您是否能够看到可以纠正的语法错误?如果是这样,请找出有问题的代码部分并重新生成它。”
利用ChatGPT的自我修复能力是一个不容忽视的Prompt工程技术。
|四、迭代Prompt策略
迭代Prompt策略主要是在初始提示的输出基础上向LLMs提供后续提示。具体而言,根据初始输出,通过提出进一步的问题或根据每个连续的响应提出额外的请求来不断改进结果。例如,考虑协助ChatGPT为正在撰写的一本书创建大纲。第一个提示可能如下所示:
“我正在写一本关于时间旅行的书。我还没有确定一个具体的主题。请为该书生成5个建议的主题。对于每项主题,请提供标题和一段关于本书将涵盖的内容的描述。这本书将针对休闲读者。”
假设生成了如下的主题之一:
标题:“时间悖论:探索时间旅行的复杂性”
描述:“时间悖论”深入研究了时间旅行悖论中令人费解的错综复杂,探索它们所呈现的迷人难题。本书探讨了各种悖论,例如引导悖论、预定悖论和信息悖论等。……
然后,便可以使用后续提示词对它进行迭代,即扩写:
“我会按照《时间悖论:探索时间旅行的复杂性》这个标题进行写。请您帮忙生成本书的章节大纲,包括章节和小节”
迭代后的输出摘录大纲如下所示:
介绍
定义时间悖论
时间旅行叙事中时间悖论的意义
章节结构概述
第一章:Bootstrap 悖论 1.1 Bootstrap悖论的本质
解释概念及其起源
文学、电影和现实生活中的轶事的关键例子
……
在这个示例中,您可以看到ChatGPT是如何不断进行迭代的。类似的迭代方法可以用于让LLMs生成代码:从概述开始,逐步迭代以生成模块,然后生成函数,在函数内生成代码。将大问题拆分解为更小、更易管理的问题通常是人类成功的方法,而LLMs也擅长以更可管理的方式逐步完成更大的任务。
|五、与模型合作
ChatGPT的最佳使用方式之一是将其视为初级助理,无论是研究助理、编码助理、问题解决助理,或任何其他类型的助理。建立这种合作氛围可以带来更多的成功。以下是促进这种合作的一些快速提示。
|Prompt的套娃Prompt
改进提示词协助效果的一种方法是让 ChatGPT 参与进来。像这样的提示可能会带来积极的结果,例如:
我现在可以使用什么提示来进一步帮助您完成此任务?
然后,ChatGPT 应该会给出一些有用的提示或建议,您可以使用它的建议来迭代下一步的提问方式。
模型引导提示的主要目的是让模型提供完成特定任务所需的信息。这类似于告诉某人:“完成这项任务,你需要什么,请告诉我”。这有助于消除猜测并防止模糊不清的结果。例如:
我希望你编写一个 Python 程序来管理我的客户信息,这些信息存储在Google Sheet中。为了完成这项任务,请询问我您需要回答的任何问题。
当然,精心设计的模型引导提示可以让您获得ChatGPT的许多相关答案,但初始提示词仍需要经过深思熟虑的编写才能有更好的交互开始。
大模型时代,企业对人才的需求变了,AIGC相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
掌握大模型技术你还能拥有更多可能性:
• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;
• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;
• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;
• 更优质的项目可以为未来创新创业提供基石。
可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把全套AI技术和大模型入门资料、操作变现玩法都打包整理好,希望能够真正帮助到大家。
-END-
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。