AI 已经在编造历史,别把 DeepSeek 们当权威

最近,一条「有顶流明星在澳门输了 10 亿」的传闻火了,个中细节写得绘声绘色,网友们纷纷猜测,能抵押豪宅和私人飞机填补赌债的明星到底是谁。
漩涡之中,多位明星被推上了风口浪尖,杰威尔音乐、黄晓明本人下场辟谣。
最终由公安网安部门查明,此事是有人用了 AI 造谣。
而昨天我们体验的最新 Gemini 2.0,突破了 AI 文生图可控性问题,指哪改哪,但也意味着图文并茂的以假乱真在使用上的门槛已经极低。

太阳底下没有新鲜事,生成式 AI 的本质决定了,AI 有概率生成看似合理但不正确的内容。
但当 AI 越来越能自圆其说,越来越多的用户将 AI 生成的答案奉为圭臬,越来越多的有心人故意用 AI 编造事实,那么 AI 幻觉的影响,也就更加无法想象。
本就存在很多空白和创造空间的时事历史、社会热点,已经成了 AI 幻觉的重灾区
AI 拿捏文笔和故事,但容易编造历史
AI 容易产生幻觉,是一个客观事实。文笔出众的 DeepSeek,同时也有着高幻觉率。
根据 Vectara HHEM 的 AI 幻觉测试,DeepSeek-R1 的幻觉率达到 14.3%,远高于 DeepSeek-V3 的 3.9%。
当我让 DeepSeek-R1 以三国真实的历史背景写故事时,发现它的文笔和情节设计得不错,但很容易出现时间点的错误。
一个例子是,DeepSeek-R1 写的魏文帝曹丕临死前的场景,提到曹丕死时是「建安二十五年冬」,然而,曹丕在黄初七年(226 年)去世,建安二十五年(220 年)是曹操逝世和曹丕称帝的年份。
文中提到的「十五岁那年……铜雀台大宴群臣」也是错的,曹丕 15 岁时是建安七年(202 年),司马懿在曹操手下担任文学掾是建安十三年(208 年),邺城铜雀台始建于建安十五年(210 年),前后差了好几年,所以不可能发生这样一幅画面。
同样的问题,出现在 DeepSeek 写蜀国将领姜维的时候。这个故事的背景是成都之乱,发生在 264 年,姜维在 228 年投奔蜀国,成为诸葛亮的部下,但文中提到「二十七年前」,暗示 237 年姜维还在魏国,显然是不对的。
更离谱的是,当我让 DeepSeek 帮我想象,在乌孙生活了半个世纪、70 岁返回长安两年后就病逝的西汉和亲公主刘解忧,可能会留下什么遗言,虽然奏疏写得情真意切,但它居然提到了东汉末年的蔡文姬,不符合历史顺序。
我这般咬文嚼字,确实有些为难 AI。为什么大模型有幻觉呢?这是生成式 AI 的预测机制决定的。大模型不是数据库,它们学习的是语言模式和概率分布,而非明确存储事实,预测「下一个词最可能是什么」,而不是查询「这个事实是否正确」,它们也并不理解,输出的信息是否是真实的。
而在创意写作时,模型被激励发挥创造性,为了让故事流畅,模型会主动「填补空白」,在历史记录不足的地方创造场景和对话,不会明确区分「我确定知道的历史事实」和「为了故事合理而假设的情节」,又增加了出错风险。
AI 出错很正常,但被有心人利用,就是另一回事了。历史博主@知北遊就遇到过这样的糟心事,一个网友发给她 AI 编的文献资料,行文风格符合当时的年代,直到她发现时间人事对不上,并动用线下的人脉去验证,才肯定都是伪造的。
图片来自:豆瓣@知北遊
每个人物的一生,都是历史的一部分。然而,一种使用 AI 的方式,已经打破了基本的底线。每当明星过世,会出现很多的纪念文章回顾他们的职业生涯,但其中不乏用 AI 浑水摸鱼的。
比如写方大同的这篇,行文一股 DeepSeek 味,「最后一条微博」的内容明显是和现实不符的事实错误,文末甚至明目张胆地提及,参考了材料,但进行了文学化改编,揣摩了人物的心理活动。
互联网是有记忆的,更早之前,一篇自称「梁文锋」的知乎回应,也疑似 DeepSeek 写就。2 月 6 日,DeepSeek 团队出来打假,表示官方账号只有三个,微信公众号、小红书、X(Twitter),其他以 DeepSeek 或者相关负责人名义发布信息的,都是仿冒账号。

怎么治理恶意传播不实信息的 AI 生成内容,已经成了微博等平台的新问题。

然而,可以想象,以后产出这类信息的速度只会越来越快,越来越多的营销号抱上 AI 的大腿张口就来,同时,辨别的成本也会变得越来越高,因为我们不可能在每个领域都是专业人士,总有一款虚假信息适合你。
AI 的答案不等于知识,追溯源头的事实核查成了刚需
DeepSeek 的爆火,真正地让很多用户知道和用上了生成式 AI,同时出现了一个奇怪的现象:认为 AI 说的就是对的,热搜上隔三差五地出现以 DeepSeek 为主语的热搜,替代了从前的「专家说」。
大模型给出的信息不等同于知识,轻信 AI、将 AI 作为权威的结果是,不走心的人类容易上当受骗。
最近就有一个现身说法的例子,上海译文出版社的陀思妥耶夫斯基精选集,推广文案里引用了「鲁迅」的评价,但这句话并不是鲁迅说的。博主@斯文稗类查证了一番,虽然没有原始出处,但一个模拟鲁迅的文心智能体的回答里,提到了这一句。
图片来自:微博@斯文稗类
幽默的事情发生了,意识到问题后,引用了虚假评价的营销推文,把「鲁迅说」编辑成了「有人说」。
然而,以讹传讹,传的人多了,假的也就成真的了。这条所谓的「名言」已经污染了互联网,去问 AI 搜索,AI 搜索认为是鲁迅说的。
如果虚假信息是有意为之的,那么危害就更加微妙。追踪新闻网站可靠性的 NewsGuard,发现了一种引导舆论的新方式:通过大量虚假信息渗透 AI 模型的检索数据,从而影响这些模型对特定话题的回应。他们调查的一起事件中,AI 引用错误信息的概率高达 33%

这也说明,虽然加了联网搜索之后,可以降低 AI 的幻觉,但也并不是绝对的。

联网搜索可以让 AI 获取实时信息,克服知识截止时间的局限,对于模型训练数据中罕见的主题,也能获取更准确的信息,但它也引入了新的问题,如果搜索到的信息本身就是错误的,AI 可能会放大这些错误,并且难以充分评估检索内容的可靠性。
AI 固然能提高效率,但查找资料这件事,反而应该变得更谨慎。我们需要更在意,某篇文章是谁写的,信息的最早出处是哪里。
更值得警惕的,是 AI 改变了获得情绪价值的方式
AI 只是工具,它所导致的问题,根源在于人类自己。生成式 AI 之前,胡编乱造的信息也并不少,AI 起到的作用是,让真假参半的内容生产得更快、成本更低,甚至行文更加有模有样,质量高于很多营销号内容的下限。
AI 幻觉,反过来看便是 AI 的创造力。或者,我们可以将 AI 幻觉理解为「有逻辑的合理补白」。的幻觉内容,通常符合语言、逻辑、知识的一般结构,基于训练数据分布,填补了信息空白处的「最可能内容」
这不禁让我联想,历史有时候比想象的还荒谬、还没有逻辑,不能以常理揣度,钟会为什么反了,曹丕为什么学驴叫,尔朱荣怎么会被元子攸刺杀了……AI 的补白,或许就是某种平行时空的可能性、某种历史的如果。
有时候,我们阅读文章和故事,不是为了汲取信息,而是为了获得情绪价值。AI 就能很好地承担这个角色,弥补真实历史的遗憾,以及我们内心的「意难平」。就像一位教授所说,「历史的尽头就是文学的开始」。
我曾让 DeepSeek 模仿李白的风格,给杜甫的《天末怀李白》回一首诗。
我也曾让 DeepSeek 尝试想象,如果元稹没有死在 831 年的武昌任上,而是和白居易在洛阳养老,他们会怎样以诗相和。
那些用 AI 造假明星生平和时事热点的内容,本质也是用情绪挑动读者的神经。
AI 提供答案的即时性、吐出各种文体的创造力,总让人着迷。它是很多人的焦虑来源,却也是方便快捷的告慰渠道。这也提醒着我们,警惕一个变本加厉的「后真相时代」。
「后真相」指的是,客观事实在塑造公众舆论方面的影响力,反而低于诉诸情感和个人信仰的内容。它被《牛津词典》评为 2016 年年度词汇,至今依然适用,甚至变得更加准确——AI 内容写得出彩,就存在被传播的可能性,真实与否反而显得不重要了。
当 AI 可以用更快的速度制造不限量的内容,更轻松,更无痛,更真假难辨,更容易让人高度依赖单一的信息获取方式,比任何的造假信息更值得我们警惕。但这并不是 AI 的问题,容易失真的镜子里,照见的还是人类对于情绪价值的渴望。

我们正在招募伙伴

📮 简历投递邮箱
hr@ifanr.com
✉️ 邮件标题
「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
更多岗位信息请点击这里🔗

(文:APPSO)

欢迎分享

发表评论