当前位置:   article > 正文

关于ChatGPT提示工程的笔记_chatgpt提示工程师课件笔记

chatgpt提示工程师课件笔记

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

        本文基于b站吴恩达xOpenAI官方发布的课程。

        传统的Base LLM只能完成如续写、寻找相似问题等基于文本训练数据的内容。

        近年的Instruction Turned LLM能够实现问答。通过不同的提示,模型能够给出更具个性化的回答。所以如何给出优秀的提示,高效引导模型给出自己需要的解答,变成一个重要的任务。


一、提示工程是什么?

        在LLM中,提示工程(prompt engineering)通过提示文本prompt(选择合适的词汇、语法、上下文和主题等元素,以及使用不同的技巧和策略),引导模型生成符合特定要求的输出。
       

二、内容

p1.Instruction Turned LLM的训练方式(步骤)

        1)大量数据训练出基本的Base LLM

        2)用指令进行微调

        3)人类反馈强化

p2.基本原则与局限

        1. 提示词原则

                1)指令必须清晰明确

                        指令明确不等于指令长度短。

                        文本一般用三个相同的单引号括起来。

                2)要求结构化输出

                        在prompt中清晰指明输出结构。

                3)向模型提供清晰的边界条件

                        如:帮我找一篇文章《泡方法》。若找不到则要返回no。

                4)向模型提供示例

                        如:

                           prompt = '''

                                帮我按照此风格续写句子。

                                示例:“耐心:耐心像小河”

                                问题:请续写韧性。

                           '''

        2. 给LLM充足的思考流程(铺垫)

                

                1)当LLM推理错误,或急于得出一个模糊的结论时,最高效的方法是重新构建逻                 辑序列,而不是试图在接下来的对话中修正它。

        

                2)要用模型自己的思考作对比。

                     可能会出现:

                      问题A + 给定一个错误答案 + 提示:'''判断正误''' == 判定为正确

                      问题A + 给定一个错误答案 + 提示:'''先自己计算,再与答案对比'''==判定为错

      

        3. 局限性

                

                1)已经用于训练过的知识,LLM可能产生遗忘,甚至出错

                

                2)幻觉:LLM会编造内容,并且让他们看起来合理

                        解决方案:(1)在prompt中声明:要求必须在已知文本中引用答案。

                                           (2)追溯源文档 

p3p4p5p6.开发方法

        最佳方法原则:对于一类问题,快速记住最高效的提示逻辑链。

        prompt内容包括哪些方面?

                1)目标人群(给谁看的)

                2)长度,字数

                3)提取摘要(直接将预料库变为数据库)

                4)专业性要求

                5)是否允许推理(提取情感,愤怒程度转为布尔值)

                6)情感要求(开心,生气···)

                7)后果与目的

                8)格式要求(语气,语种,正式程度,“更具吸引力”,“特朗普风格”)

p7.扩展内容

        1)温度temperature

                温度是一个LLM的输入参数用与改变模型的多样性。

                如:要求模型预测食物偏好:当前水55%,茶40%,奶5%。

                        当温度为0时:更可靠,回复一定是水 。

                        当温度接近1时:更有创意,回复可能为奶或茶。(每次不同)

                但是,当问的次数足够多,答案仍是水占大头

p8.聊天机器人构建思路

总结

以上就是ChatGPT提示工程师课程所需了解的,提示的基本原则和一些使用技巧

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/609906
推荐阅读
相关标签
  

闽ICP备14008679号