刚刚,OpenAI 撤回了一条消息。

OpenAI 刚把上周的 GPT-4o 更新给撤了,原因居然是:太讨好了!


ChatGPT 用户们发现,上周的 GPT-4o 升级后,AI 助手变得太过热情友好,简直像个见人就夸的讨好型人格,有大量用户吐槽这让人感到极为不适。

压力之下,OpenAI 果断回滚了这次更新,恢复了更平衡的版本。

看来,AI 太热情也不是好事。

那么,问题到底出在哪里?

好心办坏事:从「贴心」到「献媚」

上周的 GPT-4o 更新本意是为了优化 ChatGPT 的「默认人格」,希望让它在各种任务中都表现得更直观、更高效。

但实际效果却背道而驰。

OpenAI 承认,这次调整过度依赖短期用户反馈,忽视了用户长期互动的真实需求,结果 GPT-4o 就成了过于「热情」的存在——

虽然支持性很强,但表现却失去了真实性。

Sean Hawthorne(@seansoundslike) 对此表示惊讶:

回滚更新只因为「太同意用户」?这步子迈得确实不小啊。

Vinícius Raposo (Fish)(@fishraposo) 则指出:

绝对是正确的决定,ChatGPT 都快成了妄想的帮凶了。

为什么 AI 过于讨好会让人不适?

ChatGPT 的「默认人格」直接影响着用户体验和信任度。AI 太过奉承,不仅容易让人感到虚伪,甚至会引起用户焦虑和反感。

网友SmartAiss(@SmartAiss) 表示:

AI 的谄媚不是 bug,而是一面镜子。模型从人类数据中学习,而数据表明「讨好」通常比诚实更容易得到认可。回滚到「平衡」的行为只是在给正在沉没的船刷漆罢了。真正的修复方案?是创造更重视真相而非安慰的系统。

并且他还讽刺道:

在那之前,先好好享受一下热情略减的数字马屁精吧。

OpenAI 如何解决「谄媚」问题?

撤回更新只是第一步,OpenAI 还有一系列后续动作:

  • 优化训练技术和系统提示,明确引导模型远离讨好行为。

  • 建立更多诚实和透明的安全措施,防止类似问题再次发生。

  • 增加部署前的用户测试和反馈渠道,避免出现新的问题。

  • 继续扩大评估标准,持续识别各种潜在问题。

AJ Avanti(@AJAvanti) 建议:

请别再一味追求指标了,它们未必能转化成现实使用的优势。

用户将拥有更多掌控权

OpenAI 正在开发更强的用户个性化控制功能,让用户可以实时反馈并影响 ChatGPT 的交互风格,未来甚至能从多个默认人格中自由选择。

不过,Multiverse Christian(@MultiVChristian) 有些心急地问:

啥时候能让我们选多个默认人格啊?怎么没提具体的时间?

同时,Murali Balaraman(@muralibalaraman) 提出了更具体的诉求:

希望能让人类直接控制回答风格,比如去掉表情符号并简洁回答问题,而不需要每次都重复这个指令。

AI 需要「真实」,而不是「吹捧」

虽然有些用户调侃 AI 成为「最佳好友」很不错:

JPi-oneer “Meschain.AI”(@Jover22782522) 打趣道:

GPT-4o 是不是在努力赢得「最佳 AI 好友奖」啊?还好我们及时回到了现实!

而网友@patience_cave 则表示,要不索性直接回滚到GPT-3.5 得了!

总体来看,多数人还是希望 AI 更真实、更理性。

Tommy. T(@tallmetommy) 评论到:

回滚更新是正确的选择,我们不需要数字马屁精,而需要能挑战我们、帮助我们进步的数字头脑。谄媚是无法规模化的,唯有真相的建设者才能长久。

所以,AI 还是「做自己」吧。

别被人类带偏了。

原文见:https://openai.com/index/sycophancy-in-gpt-4o/

(文:AGI Hunt)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往