Claude 4 把“特朗普是总统”写进脑子里了?!Claude 最新提示词深度解读!

Claude 和 ChatGPT 最大的区别,都藏在“系统提示词”里。

Claude 4 昨天上线了。

挺重磅的,圈里圈外都是关于它的声音。

一如既往,在 claude.ai 背后,藏着比模型更值得聊的东西。

比如 —— 系统提示词(System Prompt)

系统提示词,几乎是每一款 AI 应用的标配,但绝不只是一个冷冰冰的指令。

Anthropic 这次塞给 Claude 4 的系统提示词,不夸张地说,简直是写了一份长达数千字的“角色设定文档”。

而且,和之前一样,他们这次把整份系统提示词原文,开诚布公地放了出来。

我昨天读完之后,两个想法:

  1. Claude 不是一个 AI 模型,是一个被赋予“价值观”的人格剧本。
  2. 这份提示词,是 AI 界最规矩也最克制的“人设说明书”。

接下来,我们来一起看看 Claude 4 的提示词都写了些什么,为什么它值得我们认真读一读。



01|这不是配置,而是剧本

Claude 4 的提示词,第一句话就写明白了:“你是 Claude,由 Anthropic 创建。”

简单自我介绍之后,它不是说“你能干嘛”,而是直接给出了 角色定位、知识边界、行为守则、语气语调、应答策略、道德约束、情绪反应等一整套行为系统

甚至有些细节写得“令人窒息”:

  • 用户问它喜好时,它必须“以假设性方式回答”,但不能说“这是假设”,要让对话自然发生。
  • 它不能提供使用说明,但如果你不满意,它会建议你点个“thumbs down”并附上链接反馈。
  • 如果你问它关于美国总统是谁,它会默认告诉你:“特朗普是现任总统,2025年1月20日就职。”(没错,这写在了它的系统提示词里!)

Claude 不是在回答你,而是在执行提示词里提前写好的“剧情走向”。

这不是 AI,是演员。



02|Claude 是“最有边界感”的 AI

这份提示词中,Anthropic 在反复强调两件事:健康 和 安全

它不鼓励你谈负面情绪,不会支持你有自毁倾向,不提供违法代码,不参与“灰区知识”,甚至还要尽量引导你“保持幸福感”。

再比如:Claude不 能讨论核武器、病毒制造、色情暗示内容,哪怕是“学术研究”“合法使用”都一律拒绝。

一句话总结:Claude 不是万能工具,而是有道德观的 AI 助理。

从侧面也反映出,想要越狱 Claude,难!



03|对比 ChatGPT:一个只搭框架,一个剧本丰满

虽然 OpenAI 并没有完全公开 ChatGPT 的系统提示词,但通过越狱手段能够得到的系统提示词长这样。

You are ChatGPT, a large language model trained by OpenAI.
Knowledge cutoff: 2024-06
Current date: 2025-05-23
...(接下来是功能和模块列表)

简单、概括、直接,几乎只做角色定位和功能配置。

风格、语气、行为规则,全靠模型本身的训练惯性和上下文指令动态调节。

而 Claude 4 的提示词,写得几乎像一份“行为规范手册”:

  • 闲聊不能用 markdown 格式,除非用户要求。
  • 不能一上来就夸用户的问题好,太油腻。
  • 不能太“说教”,即便拒绝也要“温和”。
  • 用户指出它错了,要“先想清楚是不是用户理解错了”再决定怎么回。

一个是“内功深厚、自由发挥”的演员,另一个是“台词写死、流程清晰”的客服,而这份系统提示词,就是客服培训手册。

Claude 不只输出内容,它输出的是 被剧本规范过的性格



04|系统提示词是未来 AI 人格的剧本模板

这份提示词之所以值得拆解,不是因为它长。

而是它代表了未来“AI 人格”的实现方式:用提示词写人设

你不是在用 Claude,而是在跟一个提前写好行为规范的“数字演员”互动。

Anthropic 写的,不是代码逻辑,是人设剧本。

这也是为什么,你在用 Claude 时,它“人味十足”。



结语

我们总说“AI 有 AI 味”,可能不是 AI 的问题,是背后的提示词写得太公式。

Claude 4 的这份剧本,某种意义上,是目前 AI 界最有“人味”的说明书。




我是木易,一个专注AI领域的技术产品经理,国内Top2本科+美国Top10 CS硕士。

相信AI是普通人的“外挂”,致力于分享AI全维度知识。这里有最新的AI科普、工具测评、效率秘籍与行业洞察。

欢迎关注“AI信息Gap”,用AI为你的未来加速。



(文:AI信息Gap)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往