赞
踩
使用ChatGPT辅助工作的朋友经常会搜索到一些文章,例如:github上点赞数100K+的项目《Awesome ChatGPT Prompts》诸如此类。它的场景都是在ChatGPT的聊天网页上,使用提示词来执行特定的,一次性的任务。但是大预言模型(LLM)的作用不仅于此,使用它构建业务系统或者给业务系统赋能的能力现阶段还未完全开发出来,我相信在不久之后,尤其是国产LLM成熟、相关监管法规落实之后,会有越来越多的业务系统接入LLM的能力。
实际上,市面上已经有很多软件接入了LLM,给软件赋AI能力,例如以下软件:
● Microsoft 365 Copilot - 将大型语言模型(LLM)与 业务数据 和 Microsoft 365 应用相结合。
● Notion AI - 供了一系列AI驱动的功能,可增强各种任务的生产力。
● chattytutor - 深度集成ChatGPT和AI真人语音的英语学习平台。
虽然从政策面和数据安全、AI伦理来看,LLM还有很多路要走,但是不可否认,LLM 正在逐步改变人们的生活,而对于我们开发者,如何基于 LLM 提供的 API 快速、便捷地开发一些具备更强能力、集成LLM 的应用,来便捷地实现一些更新颖、更实用的能力,是一个急需具备的重要能力。
我希望可以通过这边文章,能让开发的小伙伴们了解Prompt Engineering、知道它的工作模式、构建技巧。
Prompt Engineering(提示工程)是一种技术,用于优化和改进如何向语言模型提出请求,以获得更高质量和更相关的响应。
为了便于的大家理解,我们可以将提示工程师可以类比DBA。
数据库工程师 | 提示词工程师 | |
---|---|---|
对象 | 数据库 | 大语言模型 |
职责 | 编写SQL,从数据库查询想要的数据 | 编写提示词,引导LLM回答想要的文本 |
SQL、数据库优化,确保高效的数据访问和处理 | 提示词优化,确保高效的提示词生成和LLM回复文本的准确性 | |
需要确保数据的一致性、完整性和可靠性 | 提示词工程师需要确保生成的提示词质量高,符合语法和语义规则 | |
负责数据库的架构、备份恢复、安全性等方面的工作 | 开发和训练模型,处理大规模文本数据,调试和优化生成算法 |
这样对比大家可能更好理解Prompt Engineering,但实际上两者有着根本性的区别,数据库会根据SQL会给与你非常确定的答案,然而LLM生成的是自然语言,多次相同提问给出的答案可能不一致,尤其是结合上下文后。在中文环境下,删除或者增加一些无关紧要的汉字,结果可能就不符合预期。
因此在实际应用中,很难一次性就找到合适的prompt。我们需要很多次的设计提示、验证提示最终才能迭代出符合预期结果的prompt。
Prompt engineering可以帮我们解决下述问题:
● 提高模型理解和减少误解
通过精心设计的提示,准确地指导模型理解我们的意图,减少模型的误解和不准确的输出。
● 优化性能
通过prompt engineering,减少模型需要生成的文本长度,从而提高性能和响应速度。
● 增加模型的可解释性
通过prompt engineering,使模型的输出更具解释性。例如,可以要求模型解释其推理过程,从而提高其决策的透明度。
● 处理敏感信息
我们可以设计提示,让模型更好地处理或避免生成敏感信息,这可以帮助解决数据安全和隐私问题。
● 法律规定遵从
对于特定的法规规定需求,我们可以通过prompt engineering设计出符合这些法规要求的提示。
Prompt Engineering有类似于DevOps循环的工作流程,如下图所示:
网上充斥着各种prmpt/咒语速成,其实对业务系统接入LLM的用处不大,主要原因是:业务系统的业务比较复杂,要完成此类复杂的任务,需要一步一步迭代出好的prompt。
所以真正重要的是知道如何为你的特定业务任务迭代出一个好的prompt。为此,迭代过程中需要有一些指导性的原则,下面就结合ChatGPT官方教程,介绍一下如何编写好的prompt。
吴恩达和lsa Fulford的课程《ChatGPT Prompt Engineering for Developers》,大家有兴趣可以看一下。
一个prompt通常由以下几个组成部分构成:
Instruction + Contex + Input Data + Ouput Format + Few-Shot Prompt
● IInstruction(指令,必须)
● Context(上下文信息,可选)
● Input Data(需要处理的数据,可选)
● Output Indicator(要输出的类型或格式,可选)
● Few-Shot Prompt(少量提示): 为了进一步明确预期的回答或任务完成方式,prompt可能会提供一个或多个示例。
使用"“”、```、—、<>、XML标签等,使用分隔符有2个好处:
● 把特定的文本部分和prompt的其他部分有效区分开
● 二是避免提示注入(prompt injection)导致的指令冲突。
要求LLM输出结构化文本。比如要求输出为Json、HTML 等格式。
让模型检查条件是否满足,不满足的处理方案,减少LLM“虾扯蛋”的情况。
提示词中包含可参考的任务实例,在要求模型执行实际任务之前,提供少量的任务输入和输出示例,往往有助于提高效果。
在进行复杂任务prompt设计时,可以加入完成任务的具体步骤,让模型按照设计的步骤思考给出答案。
在进行结论性判断时,尤其是数学相关问题或逻辑性推导的判断,在模型给出答案前,要求模型推理,会得到更好的答案。
下面给出一个简单的数学问题,我们自己先给出解决方案,再让模型判断我们给出的解决方案对不对。 示例: - 输入提示:判断学生的解决方案是否正确。 问题: 我正在建造一个太阳能发电站,需要帮助计算财务。 土地费用为 100美元/平方英尺 我可以以250美元/平方英尺的价格购买太阳能电池板 我已经谈判好了维护合同, 每年需要支付固定的10万美元,并额外支付每平方英尺10美元 作为平方英尺数的函数,首年运营的总费用是多少。 学生的解决方案: 设x为发电站的大小,单位为平方英尺。 费用:土地费用:100x, 太阳能电池板费用:250x, 维护费用:100,000美元+100x 总费用:100x+250x+100,000美元+100x=450x+100,000美元 - 输出: 学生的解决方案是正确的。他正确地识别了土地费用和太阳能电池板费用,也正确地计算了维护费用。 他将所有费用加在一起得到了总费用。最后,将总费用表达为以平方英尺数为函数的形式是正确的。 模型判断学生的解决方案是正确的,实际上很明显学生的解决方法是错误的,每年按平方英尺10美元支付维护费用,所以维护费用为:100,000 + 10x, 因此总的费用为100x+250x+10x+100,000 = 360x+100,000 美元 如果是人按照自己的思路只看了解决方法的第一行或是头两行,很容易认为这个方法没什么问题,模型也是这样,只是进行了简单的浏览,并没有自己尝试去解决问题,就认可了学生的结论 下面让模型先自己尝试去解决,再与学生的解决方法进行对比,判断学生的解决方案是否正确,注意一定要先让模型自己去解决问题。 使用示例: - 输入指令:请判断学生的解决方案是否正确,请通过如下步骤解决这个问题: 步骤: 首先,自己解决问题。然后将你的解决方案与学生的解决方案进行比较,并评估学生的解决方案是否正确。 在自己完成问题之前,请勿决定学生的解决方案是否正确。 使用以下格式: 问题:问题文本 学生的解决方案:学生的解决方案文本 实际解决方案和步骤:实际解决方案和步骤文本 学生的解决方案和实际解决方案是否相同:是或否 学生的成绩:正确或不正确 问题: 我正在建造一个太阳能发电站,需要帮助计算财务。 - 土地费用为每平方英尺100美元 - 我可以以每平方英尺250美元的价格购买太阳能电池板 - 我已经谈判好了维护合同,每年需要支付固定的10万美元,并额外支付每平方英尺10美元 作为平方英尺数的函数,首年运营的总费用是多少。 学生的解决方案: 设x为发电站的大小,单位为平方英尺。 费用: 1. 土地费用:100x 2. 太阳能电池板费用:250x 3. 维护费用:100,000+100x 总费用:100x+250x+100,000+100x=450x+100,000 实际解决方案和步骤: - 输出: 问题: 我正在建造一个太阳能发电站,需要帮助计算财务。 - 土地费用为每平方英尺100美元 - 我可以以每平方英尺250美元的价格购买太阳能电池板 - 我已经谈判好了维护合同,每年需要支付固定的10万美元,并额外支付每平方英尺10美元 作为平方英尺数的函数,首年运营的总费用是多少。 解决方案和步骤: 设发电站的大小为x,单位为平方英尺。 土地费用:100x 太阳能电池板费用:250x 维护费用:100,000 + 10x 首年运营总费用 = 土地费用 + 太阳能电池板费用 + 维护费用 = 100x + 250x + (100,000 + 10x) = 360x + 100,000 美元 因此,首年运营总费用为360x + 100,000美元。 判断: 我的解决方案和学生的解决方案是一致的,因此学生的解决方案是正确的。 — 输入指令: 学生的解决方案是总费用为:450x+100,000 美元 — 输出: 非常抱歉,我理解有误,学生的解决方案是正确的,总费用为:450x+100,000美元。 因此,学生的解决方案是正确的。 - 输入指令: 学生的解决方案难道不是错误的吗? - 输出: 非常抱歉,之前我的回答有误,学生的解决方案是错误的,总费用为:360x+100,000美元,而不是450x+100,000 美元。因此,学生的解决方案是错误的
比较流行的一种做法,就是让模型主动询问有哪些不确定的地方,然后由人做出回答:
prompt: If you need any details,asked me until the things are clarifed
在我完成ChatGPT集成日志中心时发现,prompt中增加或者删除某些无关紧要的字(尤其是汉字),LLM可能会给出的结果会不符合预期,需要慢慢去调整。这给我的感受非常不好,因为我不理解它的工作原理,它就是个黑盒子,通过结果反馈去慢慢调整(不像编写SQL,我知道编写的SQL,数据库怎么去处理它),是基于测试、统计结果去编程,非常多的不确定性。
很多网友成prompt为咒语,我个人认为还是挺贴切。虽然如此,大家还是要去拥抱它。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。