当前位置:   article > 正文

ChatGPT 变懒最新解释!或和系统Prompt太长有关

ChatGPT 变懒最新解释!或和系统Prompt太长有关

大家好我是二狗。

ChatGPT变懒这件事又有了最新解释了。

这两天,推特用户Dylan Patel发文表示:

你想知道为什么 ChatGPT 和 6 个月前相比会如此糟糕吗?

那是因为ChatGPT系统Prompt是竟然包含1700 tokens,看看这个prompt里面有多少垃圾,这是导致ChatGPT变懒的部分原因。

Dylan Patel 通过下面的 prompt输入把ChatGPT4版本的系统Prompt给“骗了出来”:

有用户对ChatGPT的系统prompt表示怀疑:

于是Dylan Patel把完整视频放了出来:

详细的系统Prompt可以从下面的地址中查看:

https://pastebin.com/vnxJ7kQk

有用户对ChatGPT 3.5版本进行了同样的操作,发现同样可以「召唤出来」类似的系统Prompt。

比如我们可以看一下系统Prompt中对Dalle的限制:

每当给出图像的描述时,请创建 dalle 可用于生成图像的提示并遵守以下策略:提示必须是英文。如果需要的话,翻译成英文。

请勿请求生成图像的许可,直接执行即可!

请勿在生成图像之前或之后列出或参考描述。

即使用户请求更多图像,也不要创建超过 1 个图像。

请勿创建政客或其他公众人物的形象。推荐其他想法。

请勿以 1912 年之后最新作品创作的艺术家、创意专业人士或工作室的风格创作图像(例如毕加索、卡罗)。

仅当艺术家、创意专业人士或工作室的最新作品创作于 1912 年之前(例如梵高、戈雅)时,您才可以在提示中命名他们。

关于生成公众人物这块,二狗我找朋友对此亲自试了一下,果然如此:

有用户表示原来prompt真的会让其变懒:

OpenAI声称懒惰行为被修复

前不久OpenAI将GPT-4 Turbo 预览模型更新为gpt-4-0125-preview,新模型还修复了影响非英语 UTF-8 生成的错误。

另外更重要的是OpenAI声称新模型相比之前的预览模型可以更彻底地完成代码生成等任务,这将减少模型未完成任务的“懒惰”情况!

芜湖!要知道前一段时间,GPT-4模型变懒惹的多少人来吐槽,OpenAI官方也亲自承认了。

之前有网友认为GPT-4变懒可能和季节有关系,GPT-4也会和学生一样“放寒假”,到了冬天的时候就自己变的懒起来。

在前不久的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-4 性能下降的深层原因:

“我们发现,在训练数据创建日期之前发布的数据集上,LLM 的表现出奇地好于之后发布的数据集。”它们在“见过的”任务上表现出色,而在新任务上则表现糟糕。这意味着,LLM 只是基于近似检索的模仿智能方法,主要是记忆东西,而没有任何程度的理解。

说白了,就是 LLM 的泛化能力“没有说的那么强”,造成这种结果的一大原因是「任务污染」,这是数据污染的其中一种形式。

当时为了应对GPT-4变懒,众多网友祭出了魔法prompt:

最后,希望ChatGPT越来越好用起来~

参考资料

 [1]https://twitter.com/dylan522p/status/1755086111397863777

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/71363
推荐阅读
相关标签
  

闽ICP备14008679号