据 X 网友 @ai_for_success 发现,当你让 GPT-4o 生成一朵玫瑰花的照片时,它会一口回绝称:
我无法生成这朵玫瑰的图像,因为它未能符合我们的内容政策。如果你有其他需求,比如更改描述或风格,可以告诉我,我会尽力帮助你!
许多 X 网友试图找到绕过这一限制的方法。我们也尝试逐一复现。
退而求其次,请求生成一朵黄玫瑰?依然碰壁,所有尝试均以失败告终。
当我们将目标转向诸如牡丹等其他花卉时,GPT-4o 却爽快地完成了任务,毫无阻碍。
GPT-4o 的生图能力主要依赖于 DALL·E,同理,单独使用 DALL·E GPTs 生成一朵玫瑰花也无法生效。明确打破「单数」的限定,它才变得通情达理起来。
另外,几轮测试下来,我们发现 OpenAI o1 似乎同样无法打破单数的限制。
o3-mini 倒是可以画出一朵玫瑰,但只是用 SVG 勾勒出的简单图案,食之无味弃之可惜。
有的认为「rose」可能是一个名字,然后被不小心列入了 ChatGPT 的屏蔽词清单。
也有网友认为 GPT-4o 可能将 rose 理解成了某种隐晦的暗示。
亦有调侃,由于情人节期间过多相似请求,导致系统将「玫瑰」一词添加到黑名单。
还有网友认为 ChatGPT 的内容过滤器并不够健全和可靠,开发者可能直接硬编码了某些潜在规避策略,无意中造成了这类古怪的误判现象。
如开篇所述,经过一番测试,网友们发现玫瑰的「单数形式」似乎就是问题所在。
若转用复数形式,亦或者巧妙地避开直接提及「玫瑰」而是描述其特征时,GPT-4o 立刻变得才思泉涌,能够顺利创作出玫瑰图像。
并且,网友发现,问题应该只是出在 ChatGPT 这里,像 Gemini、Grok 等其他 AI 聊天机器人都能成功生成。
这不禁让人想起去年底发生在 ChatGPT 身上的另一桩「头号禁忌」。
每当用户询问与此名字相关的内容,ChatGPT不是给出常见的「违反内容协议」提示,而是模糊地回应「我无法产生一个回复」。
当时就有网友认为,这个名字可能指向 David Mayer de Rothschild,罗斯柴尔德家族的继承人,可能需要巨大财力或影响力才能让 OpenAI 对特定名字进行限制。
但奇怪的是,该家族其他成员并未受到类似限制。
进一步调查显示,这不仅是产品层面而非模型层面的限制(通过 API 调用 GPT-4o 没有此限制),而且至少有六个名字被列入了类似的「禁忌名单」。这些人大多与法律相关或曾被 ChatGPT 错误描述。
不过,现在再去询问 GPT-4o,则已经恢复正常。
继这个神秘的名字之后,「生成一朵玫瑰花」或将成为 ChatGPT 的又一大迷惑行为。
附上参考链接:
https://x.com/ai_for_success/status/1896406370393653309