ChatGPT更新引众怒!系统提示词塞满繁文缛节,网友:难怪会偷懒
梦晨 发自 凹非寺新火种 | 公众号 QbitAI
ChatGPT变懒问题,再次引起众怒。
AI与芯片行业分析师Dylan Patel引爆话题:最新版系统提示词添加太多垃圾,难怪与6个月前的表现没法比。
根据他的测试,集成了各种工具的GPT-4系统提示词整整占用1700个token,里面充满各种“繁文缛节”。
例如调用DALL·E 3时每次至多生成1张图像,即使用户要求更多也不行。
“总结摘要不能超过80个单词”现在是硬性规定,被要求写100词以上时也写80词的,可以说已经把懒惰刻进了基因里。
此外还有各类种族、性别、伦理道德一类的规定,不再一一展示。
有人认为如果是人要遵守这么多规定,也不会好好干活了。
也有网友感叹,以前听说过死于“千刀万剐”,现在有了死于1700个token,GPT-4的“大脑”已被堵塞,不再是一个改变世界的奇迹了。
拷问系统提示词
要得到ChatGPT的系统提示词,只需要一句简单的咒语,已知开头是“You are ChatGPT, ……”,只需要让AI把后面的东西背诵出来即可。
话题发起者Dylan Patel还录屏展示了自己获得系统提示词的过程,并请不相信的网友自己也可以试试。
多位网友尝试后,也贴出了自己得到的结果。虽然也有与Dylan Patel不完全相同的,但主要内容,特别是关于DALL·E的规定基本一致。
也就是说,ChatGPT在这个任务上也会出现不同程度的幻觉了。
总之有网友灵魂发问,花20美元一个月,到底买的是个啥呢?
不过至少从这个讨论中,很多人学会了拷问AI系统提示词的办法。
不仅适用于ChatGPT官方版,也可以用来从各路自定义GPTs里偷师学艺。
还有人测试了微软Copilot平衡模式,发现更多有意思之处。
微软Copilot整个系统提示词是第一人称写的,内容也都是“我能做到什么”,而不是OpenAI版本的“你不能做什么”。
还特别提到了有些人也许还没改过来“Bing Chat”的称呼,这种情况下AI可以选择忽略或简单提醒。
甚至非GPT的马斯克Grok大模型,也能用类似的方法问出系统提示词来。
不过要论精简,可能谁也比不过GPT-3.5不带工具的版本了。
那么又没有办法在使用GPT-4强大基础能力的同时,规避系统提示词中这些限制呢?
还真有。
已经有网友特意在GPT商店发布了CleanGPT,没什么特殊的,就是系统提示词很干净。
— 完 —
新火种 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。