赞
踩
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
本文基于b站吴恩达xOpenAI官方发布的课程。
传统的Base LLM只能完成如续写、寻找相似问题等基于文本训练数据的内容。
近年的Instruction Turned LLM能够实现问答。通过不同的提示,模型能够给出更具个性化的回答。所以如何给出优秀的提示,高效引导模型给出自己需要的解答,变成一个重要的任务。
在LLM中,提示工程(prompt engineering)通过提示文本prompt(选择合适的词汇、语法、上下文和主题等元素,以及使用不同的技巧和策略),引导模型生成符合特定要求的输出。
1)大量数据训练出基本的Base LLM
2)用指令进行微调
3)人类反馈强化
1. 提示词原则
1)指令必须清晰明确
指令明确不等于指令长度短。
文本一般用三个相同的单引号括起来。
2)要求结构化输出
在prompt中清晰指明输出结构。
3)向模型提供清晰的边界条件
如:帮我找一篇文章《泡方法》。若找不到则要返回no。
4)向模型提供示例
如:
prompt = '''
帮我按照此风格续写句子。
示例:“耐心:耐心像小河”
问题:请续写韧性。
'''
2. 给LLM充足的思考流程(铺垫)
1)当LLM推理错误,或急于得出一个模糊的结论时,最高效的方法是重新构建逻 辑序列,而不是试图在接下来的对话中修正它。
2)要用模型自己的思考作对比。
可能会出现:
问题A + 给定一个错误答案 + 提示:'''判断正误''' == 判定为正确
问题A + 给定一个错误答案 + 提示:'''先自己计算,再与答案对比'''==判定为错
3. 局限性
1)已经用于训练过的知识,LLM可能产生遗忘,甚至出错
2)幻觉:LLM会编造内容,并且让他们看起来合理
解决方案:(1)在prompt中声明:要求必须在已知文本中引用答案。
(2)追溯源文档
最佳方法原则:对于一类问题,快速记住最高效的提示逻辑链。
prompt内容包括哪些方面?
1)目标人群(给谁看的)
2)长度,字数
3)提取摘要(直接将预料库变为数据库)
4)专业性要求
5)是否允许推理(提取情感,愤怒程度转为布尔值)
6)情感要求(开心,生气···)
7)后果与目的
8)格式要求(语气,语种,正式程度,“更具吸引力”,“特朗普风格”)
1)温度temperature
温度是一个LLM的输入参数用与改变模型的多样性。
如:要求模型预测食物偏好:当前水55%,茶40%,奶5%。
当温度为0时:更可靠,回复一定是水 。
当温度接近1时:更有创意,回复可能为奶或茶。(每次不同)
但是,当问的次数足够多,答案仍是水占大头
以上就是ChatGPT提示工程师课程所需了解的,提示的基本原则和一些使用技巧
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。