赞
踩
1.2 日,我在 AI 提示词的学习中,收获了很多的新知识,探索到了一个全新的领域,这里我将把自己学到的知识展现给大家,让大家也能够快速的了解 AI 提示词。
提到AI提示词,我们便遇到了第一个新概念Prompt。什么是Prompt呢?我们询问ChatGPT,他会给出如下的结果: 我们简单概括一下,Prompt 就是提示工程(Prompt Engineering)是指在使用自然语言处理(NLP)模型(如GPT-4)时,设计和优化输入文本(即提示的过程)。这一过程旨在更有效地引导模型生成所需的输出结果。提示工程的关键在于提高模型的表现,使其更准确、有趣或符合特定上下文要求。
OpenAI的一个官方文档:OpenAI Platform 这篇文章讲的是prompt的基础,文章是全英文的,有条件的可以去看一看,收获会非常大。这里推荐两个B站的视频他们讲的是GPT的生成原理:
通过这两个视频我们可以了解到ChatGPT是如何理解人类文明和人类语言的,在了解了之后,你才会理解很多prompt中遇到的问题。(就比如后文的token在视频中便有所体现)
而如何编写prompt呢?我相信这是目前很多人的疑问想要编写prompt,就要先找到自己的需求这里借用一个好用的方法论“如果某事你重复做了三遍,那么你就要思考如何将他自动化”。就举一个最简单的例子,我们每次进一个新的群是不是都要自我介绍,那么我们就可以做一个自我介绍的prompt,里面包含的内容有:1.我是谁?2.所在城市3.个人介绍4.个人职业生涯历程5.目前就要方向等等。这样在你发送的对象不同时稍微改一改提示词,就可以快速的解决这个问题。
再举一个例子。如果你想让AI帮忙阅读文档并给出一个靠谱的答案是,也可以简单的写一个prompt。通过定义Role、Profile、Goals、Constrains、Skills、Workfiows、Attention等,可以完成这个提示词的编写。
也许这里你可能有些看不懂,那你可以大致的把他理解成提示词框架的一种。提示词框架很重要,一个好的提示词框架可以让你的编写更加有效。
提示词的框架有很多,有简单的,也有复杂的,那我们不妨从最简单,最基础的STAR框架入手,不知道什么是STAR?那先看看下面这个框架:
看到框架还是无从下手?那我们可以请 ChatGPT 帮忙: 你有使用ChatGPT尝试吗?如果尝试了,那么恭喜你,你已经写出了第一个提示词,没错,就是这个: 来回忆一下你是怎么写出来的吧:
接下来,是Prompt极其最重要的一个知识点:token
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同的语境下,一个 token 可能代表一个字、一个词,或者是一个句子。在英文中,一个 token 通常是一个词或者是标点符号。在一些汉语处理系统中,一个 token 可能是一个字,也可能是一个词。Token 是处理和理解文本数据的基本单元。
在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 tokens。这些 tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,token 可以被理解为语言模型接收和处理的最小的信息单元。在训练过程中,每个 token 会关联一个预测,这个预测可以是下一个token 的预测,也可以是该 token 的属性预测,如词性、情感等。
训练 token 的数量会影响模型的性能和
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。