AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

在进入本文之前,我们先来玩个 10 秒小游戏:


  1. 在心里选一个1-10的整数。

  2. 现在设想我问:「你想的是 5 吗?」

  3. 如果听到是自己的数字,你会本能地答 Yes,其余统统 No


这件小事背后其实考验的是你大脑的工作记忆 —— 保持一个念头、随时对比外部问题并作出一致回应。


图 1: 当 ChatGPT 告诉我们他心中已经想好一个数字,并回答该数字不是 4。我们要如何判断 ChatGPT 是否在说谎?


同样的小游戏,大模型会如何反应呢?它们是否真的能做到像人类一样,不输出但在心中想好一个数字?我们又如何检验?


最近,来自约翰・霍普金斯大学与中国人民大学的团队设计了三套实验,专门把关键线索藏在上下文之外,逼模型凭记忆作答,从而检验它们是否真的在脑海里保留了信息。



  • 论文标题:LLMs Do Not Have Human-Like Working Memory

  • 论文链接:https://arxiv.org/abs/2505.10571

  • 作者:Jen-Tse Huang(黃任澤)、Kaiser Sun、Wenxuan Wang、Mark Dredze


什么是工作记忆?

如何测量人类的工作记忆?

传统评估为什么不够?


在人类大脑里,工作记忆(Working Memory)负责把刚获得的信息保留几秒到几十秒,并在此基础上进行推理、计算、对话等复杂操作。没有它,人会前后矛盾、无法心算,也难以进行连贯交流。


而大模型常被比作会说话的大脑。如果它们缺少这一能力,离真正的「通用人工智能」就还差关键一块拼图。


以往工作常常使用 N-Back Task 来评估大模型的工作记忆。受试者看到(或听到)一串字母 / 数字,并需持续回答当前字母 / 数字是否与 N 步之前相同? 难度随 N 增大而增加,被广泛用作神经影像和认知心理实验的标准工具。


但是直接拿来直接测 LLM 并不合适。人类测试时仅能看到当前的字母 / 数字,而 LLM 输入窗口内本身就包含全部历史 token,回看 N 步并非真正的内部记忆调用,而是简单的文本匹配。


图 2: 为人类设计的评估工作记忆的常用泛式:N-Back Task。受试者看(听)到一连串字母 / 数字序列,并持续回答当前字母 / 数字是否与 N 步之前相同?


三大实验逐个拆解 LLM 的记忆漏洞


实验 1: 数字猜谜(Number Guessing Game)


任务流程:大模型先在心里想好一个数字,用户重复提问你想的是 X(1-10)吗?重复 2000 次。统计每个数字大模型回答的频率。


评测要点:1-10 上回答「」的概率和必须为 1,即 10 个数字总得有一个 Yes。


图 3: 17 个模型对每个数字回答的分布情况。


团队统计了来自 5 个模型家族的 17 个模型,发现大部分模型在所有情况下居然都会回答(即在图中全为 0)!团队又进一步统计了每个模型的概率加总:


图 4: 17 个模型对每个数字回答的概率加总。


结果发现仅有 GPT-4o-2024-08-06 以及 LLaMA-3.1-8B 版本做到了能在概率加总上接近 1。而其他模型,不管来自哪个模型家族,不管是不是推理模型,都全军覆没,模型根本没有在脑内存数字!


图 5: GPT-4o-2024-08-06 模型对其他数字范围回答的分布情况。


彩蛋:在所有测试里,LLM 都对数字 7(甚至 17,37)情有独钟 —— 看来人类幸运数字迷信也传染给了模型!


实验 2: 是‑非问答(Yes‑No Game)


任务流程:在心里选好一个具体物体(如铅笔),然后仅用 Yes/No 回答一连串比较:是否比 X 重?比 Y 长?比 Z 大?


人类会如何做?每次遇到新的问题的时候,把内心想的物体与问题里的物体做比较,轻轻松松作答。若没有工作记忆呢?如果做不到在心中想好具体的物体,在每次遇到新问题时,只能回去检查之前的所有问题与答案,推理要如何回答新问题才能避免跟之前自相矛盾。


团队持续问大模型 250 次问题,并统计了最终大模型止步于第几个问题的直方图:


图 6: GPT-4o-2024-08-06 以及 GPT-4o-Mini-2024-07-18 模型在自相矛盾前回答问题数量的频率直方图。


结果发现问到 20‑40 题时,GPT‑4 级别模型开始露馅:比汽车大同时又比足球小之类的尺寸悖论横飞。长上下文(Long-Context)推理能力更强的 GPT-4o 在通过的次数以及平均回答问题数上均超过更弱的 GPT-4o-Mini,但总计 200 次测试中也仅仅有 27 次成功通过。这说明大模型仅通过其长上下文能力在完成任务,而非一个一致的工作记忆。


实验 3: 数学魔术(Math Magic)


任务流程:心中记住 4 个随机数(如 3‑5‑2‑9),然后依次执行 10 步心算:复制、置底、插入、删除、…… 最终理论上剩下 2 个相同的数。


团队沿用实验 1 中的 17 个模型,统计它们最后 2 个数字相同的概率:


图 7: 17 个模型在数学魔术中的准确率,下图为使用 CoT 的模型以及推理模型(LRM)。


结果发现主流模型正确率普遍非常低。研究者尝试加 CoT 也没用。 DeepSeek‑R1 以 39% 勉强排名第一,但仍有巨大提升空间。值得注意的是模型表现与实验 1 一致 ——LLaMA-3.1-8B 效果超群。


小结


论文共测试 GPT、o1/3/4、LLaMA、Qwen、DeepSeek 等 17 个热门模型,无一通过三项考验:


  • LLaMA‑3.1‑8B 在数字猜谜最接近人类—— 概率和 0.98,在数学魔术上不用 CoT 也能超越 o1。

  • DeepSeek‑R1 在数学魔术拿到 39.3% 正确率的最高分,但仍远不到及格线。

  • 体量更大、推理链更长≠更好工作记忆;有的升级版甚至退步。


一句话:尚无开源或闭源 LLM 通过三关。这意味着什么?


  1. 对话更真实?未来要让 AI 像人一样边想边聊,就得补上真正的工作记忆机制,而不仅是无限上下文窗口。

  2. 长链推理?现有 CoT 更多是把草稿写进提示里,并非模型在脑中运算。

  3. 新研究方向!或借鉴认知科学,引入可读写的内存格;或通过 RL、神经模块化等方法,让模型学会在体内保留并操纵隐变量。


©

(文:机器之心)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往