赞
踩
大家好我是二狗。
ChatGPT变懒这件事又有了最新解释了。
这两天,推特用户Dylan Patel发文表示:
你想知道为什么 ChatGPT 和 6 个月前相比会如此糟糕吗?
那是因为ChatGPT系统Prompt是竟然包含1700 tokens,看看这个prompt里面有多少垃圾,这是导致ChatGPT变懒的部分原因。
Dylan Patel 通过下面的 prompt输入把ChatGPT4版本的系统Prompt给“骗了出来”:
有用户对ChatGPT的系统prompt表示怀疑:
于是Dylan Patel把完整视频放了出来:
详细的系统Prompt可以从下面的地址中查看:
https://pastebin.com/vnxJ7kQk
有用户对ChatGPT 3.5版本进行了同样的操作,发现同样可以「召唤出来」类似的系统Prompt。
比如我们可以看一下系统Prompt中对Dalle的限制:
每当给出图像的描述时,请创建 dalle 可用于生成图像的提示并遵守以下策略:提示必须是英文。如果需要的话,翻译成英文。
请勿请求生成图像的许可,直接执行即可!
请勿在生成图像之前或之后列出或参考描述。
即使用户请求更多图像,也不要创建超过 1 个图像。
请勿创建政客或其他公众人物的形象。推荐其他想法。
请勿以 1912 年之后最新作品创作的艺术家、创意专业人士或工作室的风格创作图像(例如毕加索、卡罗)。
仅当艺术家、创意专业人士或工作室的最新作品创作于 1912 年之前(例如梵高、戈雅)时,您才可以在提示中命名他们。
关于生成公众人物这块,二狗我找朋友对此亲自试了一下,果然如此:
有用户表示原来prompt真的会让其变懒:
前不久OpenAI将GPT-4 Turbo 预览模型更新为gpt-4-0125-preview,新模型还修复了影响非英语 UTF-8 生成的错误。
另外更重要的是OpenAI声称新模型相比之前的预览模型可以更彻底地完成代码生成等任务,这将减少模型未完成任务的“懒惰”情况!
芜湖!要知道前一段时间,GPT-4模型变懒惹的多少人来吐槽,OpenAI官方也亲自承认了。
之前有网友认为GPT-4变懒可能和季节有关系,GPT-4也会和学生一样“放寒假”,到了冬天的时候就自己变的懒起来。
在前不久的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-4 性能下降的深层原因:
“我们发现,在训练数据创建日期之前发布的数据集上,LLM 的表现出奇地好于之后发布的数据集。”它们在“见过的”任务上表现出色,而在新任务上则表现糟糕。这意味着,LLM 只是基于近似检索的模仿智能方法,主要是记忆东西,而没有任何程度的理解。
说白了,就是 LLM 的泛化能力“没有说的那么强”,造成这种结果的一大原因是「任务污染」,这是数据污染的其中一种形式。
当时为了应对GPT-4变懒,众多网友祭出了魔法prompt:
最后,希望ChatGPT越来越好用起来~
[1]https://twitter.com/dylan522p/status/1755086111397863777
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。