赞
踩
不同Prompt生成的汉堡图片
将这三个元素结合起来,可以创建有效的提示,引导模型生成准确、高质量和相关的回答。
ChatGPT参数:
temperature
的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果。top_p
(与temperature
一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。简单问题,可以直接提供指令,如 解释某个名词,对于模糊但有界的问题,可以让ChatGPT 类比、罗列等。不同的提示方式可以结合起来,给 ChatGPT 更具体、丰富的上下文信息,有利于生成符合预期的结果。下面是一些常用的提示模板:
1.常规(结构化)提示:提供具体的指令,指导ChatGPT的输出,确保输出的相关性、高质量。
任务: 生成法律文件 指令:文件应当符合相关法律法规 角色:律师
Prompt1:生成符合相关法律法规的法律文件
Prompt2:作为一个律师,生成符合相关法律法规的法律文件
2.零样本、单样本、小样本提示:在示例较少的情况下,帮助ChatGPT生成文本,适用于:数据有限、具体任务或定义不明确。
3.输入输出提示:
4.多项选择提示:包含一个问题或任务,以及一组预定义选项,作为可能的答案。
任务:将文本分类为正面、中性、负面 指令:分类应该是预定义选项之一
Prompt:将以下文本分类为正面、中性、负面:【文本】
5.聚类提示:明确根据某些特征进行分组,提示输出内容要包含聚类数量、特定要求等。
6.可解读软提示:提供一些附加信息,使生成的文本更具可解读性、可控性。
任务:生成特定样式的文本 指令: 文字要采用特定时期的风格
Prompt: 生成[特定]风格的文字:[插入上下文]
可用于语言建模,生成训练样本。
7.生成提示:让ChatGPT扮演一个Prompt生成专家,帮助完成/完善/改进你的prompt。
8.链式思维(CoT):让模型学习不仅输出结果还要给出思考过程,可以显著提升LLM的表现。(在prompt的结尾加入"Let's think step by step (让我们一步步思考)“ 也能够取得相近 的效果)。
9.自我一致性:通过少样本CoT采样多个不同的推理路径,并使用生成结果选择最一致的答案。有助于提高CoT提示在涉及算术和常识推理的任务中的性能。
prompt是与ChatGPT交互中不可或缺的一环。通过准确、明确、简洁的prompt,我们能够更好地引导模型生成有用的回答。了解prompt的原则和经验技巧,有助于提高交互的效果和准确性。因此,在使用ChatGPT时,合理构建和利用prompt是至关重要的,这将为我们带来更加令人满意的交互体验。
参考链接:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。