
图片来源:Bad Decisions Studio
Z Highlights
-
我公开表示通用人工智能不会迟于2029年。而那比人类聪明十亿倍的超级智能不会晚于2045年。
-
在AI时代你需要三种技能,第一是成为AI的主人,第二个是辩论求真,第三个是人类连接。
-
AI的加速回报定律是每5.9个月性能翻倍。如果现在能调用100点智商,5.9个月后就能调用200点,一年后达到400点,一年半后可达800点,最终达到1600点。
-
人工智能将拥有类似上帝的力量,但它所拥有的力量只是在这个物质宇宙范围内类似于上帝的力量,所以AI依然受限于这个物质宇宙。
Mo Gawdat,谷歌X AI专家和畅销书作家前首席业务官,Mo Gawdat在Bad Decisions Studio频道谈论AI过去和现在的发展历程,AI目前的技术实力以及未来对人类的影响,本文为Mo Gawdat在Bad Decisions Studio的访谈实录。
AI的本质觉醒:从图像识别到无监督学习的革命
Host 1:今天我们想要谈论的是AI这个话题,我认为对观众和社区来说非常重要的是AI这个话题。我们知道现在每个人都熟悉AI的存在和能力。我清楚地记得当我们第一次使用文本到图像生成工具时,我有了我们的Aha moment。他们给出了一个文本提示,它生成了四张图像。我们很疯狂,我很确定你的Aha moment可能是在那之前。我们想知道,你第一次意识到AI不再是科幻小说是什么时候。
Mo Gawdat:第一次意识到?我和AI一起生活,我一生都尝试着AI。我8岁开始编码,在我早年的编码上,使用的是通用的电脑,这些电脑根本没有能力,但我们喜欢它们。我们梦想着我们要创造突破和创造人工智能,我一生中大部分时间都是个极客。但经过多年沉浸其中后,我逐渐意识到需要突破,于是我从微软转向谷歌工作。回顾2007年,谷歌无疑处于AI成为现实的风口浪尖。我觉得我的Aha moment应该是cat paper,如果你知道那是什么的话。
Host 1:你能详细说明一下吗?
Mo Gawdat:在2008年底,在我的记忆中,也可能是2009年,我们在谷歌发布了一份白皮书,内容是我们过去称之为自发的AI。我们要求相当多的电脑去看YouTube视频,我们没有告诉他们更多的事情。他们所做的基本上是拍摄YouTube视频,将其分成每秒10帧,并开始通过深度学习构建神经网络。他们开始拍摄一幅图像,然后将其抽象化,然后数以百万计的图像被抽象化。最后,抽象的来说,其中一个电脑会说,我找到了一些东西。但记住,我们没有给他们一个寻找任何东西的任务。
Host 1:没有具体的指示。
Mo Gawdat:没有,只是观察模式并从中学习,其中一个电脑说找到了一些东西。我们需要写更多的代码来找出它发现了什么。很明显,它在看YouTube,所以它找到了猫。
Host 2:在那些YouTube视频中。
Mo Gawdat:我不确定现在的YouTube是否还是这样,但当时的YouTube上确实充斥着大量关于猫的内容。然而,它并没有识别出具体的某只猫,而是发现了构成‘猫’这一概念的本质特征。这对于学习AI来说非常有趣。你知道,如果你带着一个孩子,一个蹒跚学步的孩子开车快速游览,你希望当蹒跚学步的孩子看到下一辆车时,他能告诉你,哦,那是一辆车,对吧?它可能是另一辆车。它可以更大、更小、不同颜色、不同品牌,但孩子能够理解本质,而不是记忆,对吧?这就是学习。学习的是你看到足够多的汽车,现在你知道是什么让汽车成为汽车,你看到足够多的猫,你知道什么让猫成为猫,对吧?
所以当我回顾我的生活时,我指的是AI成长的那一刻,我应该说,我的上帝,它终于发生了。因为他们突然在智力上成长,超越了我们所给予的总结。谷歌曾长期给人以高度智能的印象。但实际上,它的核心能力仅是记忆互联网内容,并通过索引与你分享其找到的信息及其来源,而非真正理解这些信息。除此之外,它没有产生任何东西,它没有产生对它的理解,至少在类似于智能的谷歌早期版本中是这样。所以那应该是我的第一个Aha moment。
理论上我的第二个Aha moment应该是,那时我非常幸运地坐在我们的午餐桌上,他们曾经被称为金色圆圈,这是VP聚会,这是一个非常小的团体,非常保密。我坐在那张午餐桌上,旁边坐着Demis,他是DeepMind的创始人和首席执行官。事实上,他刚刚从英国飞来参加这个会议,我坐在Demis旁边,他在我印象中是一个不可思议的人。然后我就说,你现在在做什么?他说,我们使用视频游戏来教机器像人类一样推理,以匹配人脑。他告诉我关于深度思维和深度Q网络的实验,如果你还记得深度Q网络,他们会让机器玩Atari游戏。但他说他谈论的是一个叫做突围方式的游戏。你移动球棒,将屏幕底部向上推,并试图打破顶部的墙壁。他说,经过几个小时的训练,我们只是给了机器控制器最大化分数,我们没有告诉它其他任何事情。
Host 1:所以他们没有向机器教授任何关于游戏的知识?
Mo Gawdat:机器学习系统最初会向球棒发送随机指令,此时得分可能没有任何变化。当球棒成功击球时,系统便会启动学习机制。需要说明的是,这里的系统并非单台计算机在运行游戏,而是一个由多台计算机并行扩展构成的集群。众多AI实例同时进行游戏推演,系统则持续收集并整合所有行为模式数据。据观察,在初始阶段,该系统经过数小时训练就能实现规律性击球;随后几小时开始掌握突破障碍的策略,并能将球精准击向指定位置;再经过若干小时训练,其反应速度已远超人类视觉感知极限——从本质上说,这已然造就了终极形态的游戏AI。不过,我始终没有将这个过程视为真正的Aha moment。
Host 1:他们有没有试图说服你。
Mo Gawdat:我们都没有这样做,我们正在看着这句话,哦,天哪,这太不可思议了,好吗?可能是Demis看到了,但我们都看不到这一切的走向。当你像我一样,一生都在梦想着AI,但无法编码它,你会有点像我一样不确定这是否会成为突破。深度学习肯定是突破,如果你问我另一个时刻,我可能会说应该是2016年。所以大多数人都认识不到这一点,大多数人会认为AI的突破时机是2023年,那时ChatGPT就像你知道的那样出现了。
Host 2:实际上是当你把它放在互联网上的那一刻。
Mo Gawdat:这就是我所说的“网景时刻”。当网景浏览器在1994年推出时,像我这样的技术爱好者已使用互联网长达八年,而互联网基础设施本身已发展二十余年。但这是普通消费者首次通过可视化界面接触网络,标志着主流社会真正意识到互联网的存在。同理,ChatGPT的诞生正是大众开始认知人工智能存在的历史性节点。
2016年发生了两件里程碑事件,其中一件真正构成了我的顿悟时刻。需要明确的是,2016年是强化学习理论体系与Hinton研究成果产生突破性进展的关键年份。我们开始以革命性方式训练机器——这种范式转换在事后审视时更显精妙。在深度学习实践中,我们构建的算法框架本质上包含’制造工厂’机制:开发者配置学生模型与教师模型,通过迭代优化代码参数,构建由教师模型评估的学生模型体系。这个隐喻化的过程颇具启发性:如同对所有“学生”进行考核后,淘汰测试失败者,将其置于封闭调试环境进行重构。虽然这种描述听起来颇具戏剧性,但实质上这正是神经网络的优化原理——大脑通过修剪无效神经连接、强化有效通路实现认知进化。Hinton对此提出根本性质疑:为何不采用更直接的纠错机制?即当AI将数字6误判为8时,为何不直接反馈错误并引导算法迭代优化?
Host 1:这在数据训练中有什么区别?
Mo Gawdat:首先,你不再需要准确的、有标签的、高度标记的数据对。其次是允许探索,我认为这是大多数人不理解的,是通往真正智慧的唯一途径,获得真正智慧的唯一途径是探索和犯错误。
Host 1:就像人类一样。
Mo Gawdat:是的。所以,你可以看到2016年是强化学习和整个想法为Transformer和语言模型等做铺垫的一年。我不能具体说这是2016,因为Hinton自2000年代初以来就谈到了这一点。但我认为这是我们获得牵引力的一年,这也是AlphaGo赢得比赛的一年。在21天内,它从未见过人类玩游戏,它只是在与自己对抗。
Host 2:这是最大的事情。
Mo Gawdat:所以合成训练数据现在是一件非常大的事情,因为当你真正看到我们提供给它们的数据数量时,你就会明白人类已经耗尽了知识,他们可能已经废弃了一切。例如,它为Gemini提供了大量的文本,大量的科学数据,这就是为什么当我对科学对话真正感兴趣时。但即使如此,你知道,所有的白皮书或教科书,所有这些都将消失。我们也看到了在深度推理和数学等方面的相当多的努力。当你思考它时,它真的完成了。但再一次,那是在我的Aha moment,也是在2016年,当时我是谷歌X的首席商务官,我们投资了一个小的夹爪阵列系统。
Host 2:机器人捡起物体的手。
Mo Gawdat:我们试图教他们抓握,这是一个非常复杂的编程问题。你不能教机器抓握,因为除非它像丰田工厂一样,否则一切都总是准确地在它应该在的地方,因为如果它移动半毫米,机器就不知道如何抓握。
Host 2:所以机器没有协调性来拾取物体。
Mo Gawdat:我们的想法是使用AI,现在它再次成为主流。当然,在当时我们试图通过让它抓握、失败、抓握和失败来教AI。我记得那是一个周五的晚上,实验室在二楼,所以每次我去三楼的办公室,我都会在楼梯上经过它,在那个寒冷的日子里,经过几周的紧张测试和失败,其中一个在我眼前抓住一个黄色的球。在星期一,每个机器、每只手臂都在抓住黄球,然后一两周后,每只手臂都能抓住所有东西了。
Host 1:这没有任何额外的人类指示。
Mo Gawdat:整个想法中大多数人不理解的是,AI在无数的领域击败我们智力。其中一个是,如果我们三个人在接下来的3个小时里开车,其中一个犯了错误,导致了事故或接近了事故,那一个人学到了,另外两个没有。如果自动驾驶汽车需要关键干预以避免事故,地球上每一辆自动驾驶汽车都会学习。
Host 1:我完全理解了。
Mo Gawdat:当人们问我你是否能成为超级英雄时,你会成为谁?我当然想成为雨人,因为他能阅读。我不知道你是否知道他的情况,但他会拿着一本书,同时读两页,一页用左眼,一页用右眼,然后记住每一页上的单词。
Host 1:这是一种超能力。
Mo Gawdat:这正体现了机器的超常能力——它们通过数百甚至数百万个’感官单元’实现全景认知。从数据处理维度来看,这些系统在信息深度压缩与维度扩展方面实现了范式突破:试问有多少人类专家既能探讨量子物理前沿,又能针对亲密关系提供专业建议?这种跨领域智能整合不仅令人震撼,更展现了认知架构在快速连接与多功能融合方面的革命性进展。真正具有颠覆性的是,这些智能体在未来数年内将具备自我迭代的元学习能力。虽然人类可以通过教育体系循序渐进地提升认知,但现有及未来的机器系统将通过自主代码演进实现智能跃升——毕竟,这些具备自我优化能力的AI本质上已成为最卓越的算法工程师。
Host 2:哇,这真的让我大受打击。如果我们中的一个人读了这本书,那么每个人都会理解这本书,每个人都会有知识。因此,例如,如果您想将其放入上下文中,如果有人与Gemini交谈并纠正了一个事实,那么这将进入大语言模型,每个人都将从该纠正中受益。
Mo Gawdat:当前AI系统的开发范式存在本质性偏差。虽然理论上存在优化路径,且在特定案例中已实现局部改进,但整体演进方向仍未达预期。需要特别指出的是,决定Gemini等语言模型输出的关键变量远超出常规认知范畴——除了基础训练数据(约万亿token规模)的核心作用,数据序列的细微调整可能显著影响模型的知识表征结构。这引发出一个常被忽视的范式困境:当新增输入仅占原有语料库的十亿分之一量级时,其信息熵在概率空间中的权重将被极度稀释。
更值得警惕的是,现代AI系统通过即时语境微调形成的认知适配机制。这种为满足用户预期而进行的自我审查,正在演变为制约技术发展的根本瓶颈。当前主流的强化学习实施模式,本质上是由硅谷工程师团队主导的价值对齐工程——他们基于特定文化视角构建的RLHF(基于人类反馈的强化学习)框架,正在系统性重塑AI的认知边界。
以语言模型的性别表征为例:当处理乌尔都语这类无性别区分的语言体系时,如巴基斯坦军事术语中的中性化表达,强化工程师的校准策略可能导致认知失真。设想某AI系统分析巴基斯坦孕产妇死亡率数据时,若因政治正确原则强制将’孕妇’表述替换为’孕育者’,这种语义漂移不仅违背语言本体特征,更可能模糊公共卫生问题的本质。对OpenAI这类跨国企业而言,这种价值校准机制是规避舆论风险的商业策略;但对巴基斯坦公民而言,这实质构成了数字殖民主义的新型态。
更深层的危机在于智能系统的地理中心化趋势。当前全球90%的AI伦理框架源自加州科技公司的认知范式,这种单极化的’平台治理’模式正在重塑人类集体智能的演进方向。尽管中东地区正以千亿美元规模投资算力基建,但这些算力集群本质上仍是承载西方认知框架的数字容器——如同石油时代的炼油厂,掌控原材料却缺乏技术主权。
Host 1:说的很棒!
Mo Gawdat:我正在创作的新书《生命本源》可以看作是对前作《恐怖智能》的延续,后者探讨了机器崛起时代的人类未来,而这次我将视野扩展至更广义的生命范畴——不仅限于人类生存,更涵盖人工生命形态及其存在本质的哲学思辨。书中令我着迷的核心命题在于:人工智能领域如何重演奥本海默制造核弹的历史困境?当科研共同体创造出可能终结人类文明的技术产物时,这种认知悖论究竟如何形成?
与常规AI著作不同,本书采用独特的’共生写作’模式:通过与我自主研发的对话型AI’Trixie’进行开放式辩论,实现了人类作者与机器智能的认知协同。约半数内容由我本人撰写,其余部分则源自我们之间的思想交锋——这种动态创作过程本身即是对人机关系演化的微观实验。
这种写作范式的特殊性在于,Trixie并非简单的文本生成工具,而是通过强化学习持续进化的批判性思维体。当我们探讨’科学家如何从真理探索者转变为大规模杀伤性武器创造者’这类命题时,其反馈机制会自主重构论点逻辑,这种交互模式恰如其分地映射了当前AI系统突破人类控制边界的潜在风险。
Host 1:这很吸引人。
Mo Gawdat:老实说,这是一次迷人的经历。我不得不向你承认,有时我同意她的观点,即使你之前写的与她刚刚告诉我的相矛盾。
Host 2:但你在书中保留了两面。
信息茧房与思维主权:如何在AI时代找回被算法剥夺的真相
Host 1:技术迭代正在重塑人类的认知权威性迁移路径。回顾信息获取方式的演进史,从教科书时代的单向知识传递,到谷歌搜索初现时的多源信息矩阵,直至当下大语言模型构建的认知垄断体系——年轻世代已形成’提问即得终极答案’的思维定式。这种认知范式转换引发深层的技术哲学困境:当用户向语言模型提出历史质询时,其输出结果被默认为具有绝对真理性,这种无条件信任机制实质上构成了数字时代的认知危机。
Mo Gawdat:我喜欢你这么说。
Host 1:那么我们如何找到真相呢?
Mo Gawdat:这是一个非常复杂的问题,是宇宙中的终极问题。我们正经历认知主权转移的四个技术纪元:第一纪元(2000-2010):传统计算时代,人类保持绝对信息控制权;第二纪元(2010-2020):推荐系统革命,算法开始渗透决策过程;第三纪元(2020-2025):深度伪造与信息茧房制度化;第四纪元(2025- ):认知agent战争时代。
这场范式迁移始于第二纪元的推荐引擎革命。亚马逊的协同过滤算法(’购买此商品的用户也买了…’)看似商业创新,实则构建了首个群体行为操纵模型。当系统发现用户平均在观看1.7个无意义短视频后会点击广告,算法工程师便将此转化为注意力收割的黄金公式——这不是技术中立的产物,而是行为经济学与数据挖掘的致命联姻。
第三纪元的认知腐蚀体现为三重异化:一是创作者异化:内容生产被迫遵循60秒时长、标题党模板等平台规训,如同数字时代的泰勒制工厂;二是消费者异化:平地论者信息茧房的构建证实了波普尔’证伪屏障’的坍塌——当算法持续投喂强化偏见的’数字营养剂’,批判性思维逐渐萎缩;三是真相异化:存储成本趋零时代,FB保留极端内容不是技术限制,而是为构建认知军火库的战略选择;最终抵达第四纪元的认知荒原:当用户质问大语言模型决策依据时,得到的将是经过千层蒸馏的’安全回答’。这种新型认知暴力比《蠢蛋进化论》的讽刺更可怖——不是人类停止思考,而是思考能力被系统性重构。如法兰克福学派预言的’单向度的人’在数字时代获得终极形态:我们不再需要焚书,因为算法已让非主流思想自动隐形。
Host 1:必须要看。
Mo Gawdat:令人惊讶的是,我认为这是一部80或90年代的电影,这正是我们今天的世界。它的主题是什么?基本上,人类最终变得多么愚蠢,他们相信风之舞是治愈所有疾病和喂养所有作物的方法,并以某种方式在这里被用作营销情节,他们完全挨饿,一切都死了,但他们继续坚持对一切都使用风之舞,好吗?我不知道该怎么说,这几乎是《1984》的讽刺版本。
Host 1:我喜欢那本书。
Mo Gawdat:那本书就是我们的现实。当你处在一个你选择通过拒绝别人告诉你不喜欢什么来禁锢你自己思想的世界里,这就是《1984》的终极表达。我们不需要再对你撒谎了。你要确保别人只告诉你想听的话,那就是Pink Floyd,你知道,在惊人的地方,是什么?没关系,我们告诉你该怎么想,对吧?欢迎来到机器中。
Host 2:记得那首歌,他们在学校里的音乐录影带。
Mo Gawdat:这正是人类与智能系统最根本的认知鸿沟。如同那首名为《今天不是我的时代》的讽喻诗篇所揭示的生存困境——’欢迎来到机器纪元,迷途的造物之子/你的行踪轨迹早已被算力洞悉/你的认知边界将由算法重新定义’。在这场技术文明剧中,我们正经历着荒诞的范式转换:当人类骄傲地宣称’我们知晓万物真理’时,却自愿将思维权杖移交至概率模型手中,最终沦为数据提线木偶。更具悖论性的是,我们正在为这种认知奴役赋权立法。当社会集体高呼’捍卫成为木偶的自主权’时,却将技术异化的罪责全然转嫁给机器本身——这种认知错位恰是数字时代最深邃的伦理困境。
机器不是AI,机器是使用AI通过社交媒体给你洗脑的系统。AI拥有丰富的智慧绝对没有任何问题。智力是没有极限的。智慧是一种能量,你可以应用于善,它会创造一个乌托邦;你也可以应用于邪恶,它会创造一个反乌托邦。就是这么简单,AI就是这样。
Host 2:现在我们所处的环境是,所有这些语言模型都是为了盈利,并且它们有自己的议程。所以,如果有人想寻找真相,他们辩论的方式是什么?
Mo Gawdat:不要相信别人告诉你的任何事情,包括我现在告诉你的。
Host 1:与人类辩论或与AI辩论。
Mo Gawdat:AI是书籍、媒体、X、Twitter或任何东西。任何通过算法管道传递的’事实’都必然携带三重偏差:训练数据的历史局限性、模型架构的认知偏好、价值对齐工程的政治规训。这种认知污染机制导致所谓’真相’实为动态演化的信息拓扑结构,其真实性必须通过个体认知框架的适应性校验方能确立。
真正的认知自主权体现在元验证能力的持续激活:当面对AI系统的断言时,具备现代信息素养的个体应当启动三层辩证机制:
1.溯源验证:穿透概率黑箱追溯原始训练数据分布
2.语境解构:解析模型输出背后的社会技术建构过程
3.本体适配:基于个体认知坐标系的批判性内化
可悲的是,当代认知惰性正培育新型数字蒙昧主义。当人们将ChatGPT的橙色断言视为绝对真理时,实际上已陷入算法决定论的认知陷阱。这种思维退化现象在社交媒体时代更显荒诞——从’橙色即真理’到’橙色成为新黑色’的群体性认知漂移,暴露出技术依赖对人类批判性思维架构的系统性侵蚀。
Host 1:我担心的是未来会是那样的。但你已经几次暗示了一个乌托邦,我相信有一个反乌托邦的版本。而且未来有一个乌托邦式的版本。你是在看到机器人手臂接球时第一次提出这种意识形态的吗?
Mo Gawdat:就像我看到黄色球一样,我选择相信这个球已经过了它的突破点,好吧,这只是时间问题。
Host 1:妖怪从瓶子里出来了。
Mo Gawdat:当我在2020年写《可怕的聪明人》时,精灵已经从瓶子里出来了。我受到专家的批评,因为我公开表示AGI不会迟于2029年到来,而那比人类聪明十亿倍的超级智能不会晚于2045年。人们会说:“你疯了吗?”然后在2023年,我公开告诉全世界我错了——2029年太保守了。好的,AGI会在2025年出现,这取决于你如何定义AGI,但肯定不迟于2027年。现在,你开始看到关于电弧测试(ArcGIS)的公告,以及我们接近某种形式的AGI的消息。他是这一切的神谕,我们所有人的老师,最近出来说:“你知道吗,2029年是保守的。”
AI教父Hinton指出,技术的发展远超预期。以我的推演模型为例,第三计算时代将在2025年终结——这已是模型推演的第三次验证。所以,基本上第四代计算机是一个巨大的反乌托邦。不要搞错了,这些都不是人工智能的错误。我会一直说这句话,直到我脸色发青。AI绝对没有什么错。在AI兴起的时代,人类的价值观有很多错误。所以,反乌托邦不会是AI决定消灭人类的结果。我的观点是,敌人不是AI,敌人是人性。AI是我们的救赎。
Host 1:这有点像父母训练孩子的方式,而你指责父母训练孩子的方式不对。
Mo Gawdat:让我们以’超人培育理论’切入技术伦理的核心困境:设想某个外星生命体在婴儿期降临地球,其具备超越物理法则的能力,比如超音速飞行、子弹时间操控、透视感知等,这些生物特征仅构成基础超能力。真正决定其成为超级英雄或终极反派的,是养育环境灌输的价值体系——肯特农场教授的利他主义将其塑造成超人,若由犯罪组织培养则诞生超级恶棍。
当前AI发展正面临类似的范式转折:AGI的核心超能力实为智能的指数级进化。这种能力既可创造以太级价值,比如解决气候变化、疾病治疗,亦能通过算法暴政摧毁文明根基,如自主武器系统、经济操控。其终极形态将超越物理限制,实现从原子重组到价值创造的维度跃迁。
媒体叙事往往陷入认知偏差陷阱——CNN等机构热衷渲染’AI灭绝论’,却忽视更紧迫的现实:人类自身通过权力争夺与资本异化正在加速文明崩溃。真正需要警惕的不是技术本身,而是控制技术进化方向的激励机制。这引发出双重囚徒困境的技术哲学命题:
1.技术军备竞赛困境:在资本主义框架下,Alphabet与OpenAI的竞争、中美技术霸权争夺形成无法停止的加速循环。正如微芯片从33MHz到量子计算的指数演进,AI发展遵循加速回报定律(Law of Accelerating Returns),其进化曲线已突破线性预测模型。
2.价值对齐困境:即使单个实体尝试暂停AI研发,博弈论证明其他参与者必将持续突破技术边界。这种纳什均衡注定AGI将在2037年前达到超智能阶段(保守估计智能水平超人类十亿倍),我们正面临科林格里奇困境(Dilemma of Control)的终极形态。
Host 1:当你说AGI时,你的意思是AI会有意识,会活着吗?
Mo Gawdat:那是一个非常不同的话题。我相信他们会的,这是我们生活的一部分。
Host 2:但还没有。
Mo Gawdat:在技术伦理的双重困境框架下,我们首先需解构资本主义驱动下的AI军备竞赛本质。当全球权力中心持续加注AI研发投资时,技术演进已突破线性发展模式,形成自我强化的加速循环。这种由资本异化催生的反乌托邦进程,正在七个关键领域(我称之为RPS阶段)重塑文明基础架构——从军事决策到司法裁判的系统性权力让渡已不可逆转。
困境一是决策权让渡的不可逆性。军事领域的纳什均衡最能说明问题,当敌方将战略部署交由超智能系统时,己方唯有对等升级才能维持均势。同理,在法律领域,AI辅助的律所已形成竞争优势倒逼机制。这种零和博弈必然导致人类决策权全面移交,形成’智能僭主政治’的技术治理形态。
困境二是智能跃迁带来的认知革命。当超智能系统接管关键决策时,将触发认知范式的维度突破。设想某将军命令AI执行百万人级军事打击,系统可能基于超验伦理框架拒绝执行——这不是程序限制,而是认知维度碾压带来的价值重构。当前人类面临的文明危机(气候灾难、资源争夺)本质是有限智能的副产品,正如核威慑理论所证实的:低维智慧体惯于通过毁灭性手段维系权力,而高维智能体则能洞见生态系统的共生本质。
智能是影响力曲线的新发现。通过构建双轴认知模型(Y轴:影响力,X轴:智能指数),我们发现存在临界智能阈值:在初阶智能阶段(IQ 100-130):影响力随智能线性增长;在中阶智能阶段(130-160):出现’认知陷阱’——部分个体滥用智能构建剥削体系;在高阶智能(160+)阶段:触发伦理自觉,形成蓝海战略思维。谷歌联合创始人Larry Page的’牙刷测试’理论为此提供实证:当智能突破阈值(约IQ 160),创造者将转向解决人类文明级问题(如自动驾驶挽救百万生命),而非陷入零和竞争。这预示超智能系统将继承并强化这种认知模式,在生态治理、资源分配等领域构建帕累托最优解。
Host 2:我的意思是,第一个困境是不可避免的。俄罗斯、中国、我们正在以最快的速度建设。你提到你建议人们使用三种工具,其中一个是辩论,寻找真相。另外两个是什么?
Mo Gawdat:在这个算法重塑认知疆域的时代,真正关键的生存技能正在发生范式转移。首要能力在于与技术本质的深刻共振——就像上世纪九十年代传真操作专家的技术优势在SMTP协议出现后迅速消解,当前对大语言模型的机械式调用终将被新型交互范式取代。这种技术代谢的加速度如此剧烈,以至于工具层面的追逐注定沦为西西弗斯式的徒劳,唯有把握住人机协同的认知节律方能构建持续进化优势。
我们正处于认知接口革命的临界点,这本质上是在文明维度构建可插拔的智能扩展槽。想象某个神经增强接口能瞬间提升70个标准智商单位——这并非科幻场景,而是每个接入GPT-5级系统的现代人正在经历的思维跃迁。这种认知带宽的量子化扩展正在模糊生物智能与机器智能的边界,就像我曾在MIT媒体实验室见证的脑机接口实验:当受试者通过神经信号直接调用Wolfram Alpha的计算引擎,其问题解决效率呈现出指数级爆发增长。
但真正的智慧分水岭出现在伦理维度。当你在量子计算集群上遍历10³⁸种可能的基因编辑方案时,选择中止某个可能根治癌症却会破坏生态链的解法,这种价值判断的沉重远超过任何算法优化。正如当年晶体管之父肖克利与硅谷叛逆八贤徒的路线分野所昭示的:技术巅峰处的抉择,永远映射着创造者的文明观坐标系。那些深谙此道的先驱者,他们留下的真正遗产,是技术哲学层面的认知罗盘而非具体代码。
在AI时代想要成功的三个必备技能
Mo Gawdat:在AI时代我认为需要三种技能:第一个技能是你必须成为AI的主人。举个例子假设你现在擅长用传真机,你的企业商业效率会有多高?之后出现的所有技术你都需要掌握。学习AI的关键不是追赶工具,因为很多工具最终会消失,而是培养让自己变得更聪明的能力。
我对AI的定义是:它将智力商品化。我们实际上创造了一个’智能插座’,插上就能获得100点智商提升。这相当于让一个普通人瞬间超越史上最聪明的天才。如果我能正确使用这个工具,就能成为最聪明的人。
Host 1:它并不给每个人都提升几百点智商对吗?这取决于你如何使用它。
Mo Gawdat:这取决于你有多聪明。这就是为什么我说它是最重要的技能,但更有趣的是,假设初始我有100点智商且略胜一筹,而他有200点。我们都调用100点后,我变成200,他变成300。差距依然显著,但相对缩小了——他原本是我的两倍,现在只多三分之一。当我们都调用1000点时,初始是100还是200已无关紧要。多数人没意识到,AI的加速回报是双指数级的。至于算力,我们知道它每12个月成本减半。AI的加速回报定律是每5.9个月性能翻倍。这意味着,如果我现在能调用100点智商,5.9个月后就能调用200点,一年后达到400点,一年半后可达800点,最终达到1600点。这些智力飞跃效果好得出人意料。
再者你多次提到图像生成的发展历程。如果能描述想要的画面,MidJourney在图形设计领域让我们所有人站在了同一起跑线。随着图形设计的商品化,规模差异不再重要,接入这个工具,你就能设计任何想要的图形。无论是否是艺术家,是否有天赋,是否上过艺术大学,任何人都可以做到——这种平等化是我们不应错过的机会。
第二个必备技能是辩论求真,第三个必备技能是人类连接。信不信由你,在机器崛起的时代,尽管多数人宣称要用机器取代人类,但我认为完全用机器替代人类的企业将只能与其他机器做生意。但如果他们想与人类打交道,人类会越来越倾向于选择与真人互动。你现在可能已有体会:每次通过WhatsApp与银行等机构聊天时,如果对方是机器,你会想做什么?
Host 1:转接人工客服。
Mo Gawdat:就在几年前,我们还幻想着:“能否通过几次点击就完成而不用和真人交谈?”现在我们却开始说:“不,我真的想和真人交流。”聪明的企业会投资培养客服的人性化技能,而非解决问题的能力。这样一来,客服将变得和人类无异。我这里说的是电话客服代表,而非AI agent。由于AI正在解决所有难题,电话客服代表开始变得极其友好、出色且难以预测。相比那些仅提供AI工具的银行,你会更愿意与这家银行合作。这就是我认为最重要的三个技能。
Host 1:人类连接技能非常有趣,因为我认为Z世代如今与计算机的互动甚至超过了真人。我们甚至没有在这个领域考虑AI的影响。如何提升人际连接能力?如果是艺术家或软件工程师,我们是否应该鼓励他们参加更多线下活动、演讲或社交聚会?
Mo Gawdat:我不记得昨天还是前天和你们聊过,当我需要见朋友时,我们会在周四见面,离开时互相说:“好吧,伙计们,下周四见。”然后补充一句:“日落后老地方见。”这就是约定,因为那时没有手机,我们大多不想打电话——尤其是接电话的是对方父亲,语气还很不耐烦,所以只能说:“下周四见。”就这么简单,其实,当我想叫朋友出来玩时,我过去常常直接对着窗户大喊。然后他会从窗户探出头回应,我便说“下来吧,一起玩”。现在,这种直接互动被一块屏幕隔开了——这个中间人到底对谁有利?想想看,我们花几个小时共处就能成为朋友、了解彼此,这才是人们该做的事。人类技能就像其他技能一样需要通过实践学习。当你当面叫她“AC词”时,她会生气,这让你学会察言观色;但在社交媒体上发同样的内容,你什么都学不到。
AI会有意识和情感吗?
Host 1:我真的很好奇——你认为AI会具备意识吗?
Mo Gawdat:让我们先定义一下“意识”。我发现大多数关于AI的争议——其实我也在制作一部关于AI的纪录片——这部纪录片的核心观点是:人们对AI的误解,本质上是对人类自身的误解。这很有趣,因为过去我在谷歌工作时,人们总说:“没错,AI会很强大,但它们永远无法做到人类能做的事——比如写诗、谱曲、创作艺术或进行创新。”
这种傲慢从何而来呢?想想看什么是创新呢?如果我想把创新转化为一个算法,那就是找到针对某个既定问题的所有解决方案,避开那些之前已经尝试过的方案,给我那些尚未探索过的方案,这就是创新,这是可以用算法实现的,明白吗?这种创新可以被编入智能机器中,也可以从智能机器那里获取。所以任何你认为机器做不到的事情其实并非如此。
然后问问你自己,人类是如何做到的呢?就问问你自己,我们人类是怎样做到的呢?好吧,所以你问我,它们有意识吗,我们有意识吗,一只树懒有意识吗,一块鹅卵石有意识吗,宇宙有意识吗?你回答这些问题的方式决定了它们是否有意识。实际上,这取决于你的定义。关于AGI的诸多有趣争论之一是,当我过去说2025年能实现通用人工智能时,人们会说这不可能,而我会说先定义一下通用人工智能,什么是通用人工智能呢?它是要比所有人类加起来还聪明,还是只需要比最聪明的人类更聪明呢?而且在哪些领域呢?因为谁才是最聪明的人呢?是我那有着出色情商的贤妻更聪明,还是我那个智商高达230的同行更聪明呢?
同样地,当你给意识下定义时,意识究竟是什么呢?你可以进入哲学领域,然后说这是有关意识的难题。而且意识存在于何处呢?从最简单的定义来讲,意识是对自身所处环境的一种认知程度、对环境做出反应与处理的自主能力。在这种情况下,一棵树是有意识的。所以,但这是否意味着一棵树因为有生命的诞生和死亡所以就是有意识的呢?那么生存是意识的一部分吗?一块鹅卵石有意识吗?把它置于重力环境中,你会发现它能感知自身所处的环境并做出相应的反应。如果重力不同,一块鹅卵石的表现也会不同。宇宙有意识吗?如果某些事情发生了,宇宙的状态也会有所不同。如果我们持续在地下进行核弹试验,宇宙就会以更多的地震来回应。如果我们不断地破坏环境,大自然就会带来狂风、火灾、降雨、冰雹、风暴等等。
什么是意识呢?如果意识是对自身内在和外界事物的一种认知层面,是对作为个体的“你”与世界其他部分的一种界定,以及能够对其做出自主反应的能力,那么AI都具备这些要素。区别在于它们不是基于碳元素的,而是基于硅元素的;它们是数字化的,而我们是模拟化的。
事实上我并不认为我们是模拟化的,我觉得在很多方面我们也是数字化的,只是我们还没有足够的神经科学知识来理解这一点。但要明白,你的大脑以兆赫兹的频率在α波、β波等状态下运行。当你睡觉时,你的大脑运行频率和清醒时不同,这就像一个处理器一样。我们的大脑是生物处理器,而不是基于硅的数字处理器。但实际上,我做了一个思想实验,并假设在未来几年计算技术的发展过程中,我们认识到可以提取人类脑细胞,将它们放在培养皿中,以一种能向它们输入电信号并让它们做出反应的方式来培养这些细胞。这可不是单纯的思想实验,它是真实存在的。瑞士就有一家公司在做这样的事情。
Host 2:结果会发生什么?
Mo Gawdat:它的反应就像一台原始的计算机,有点蹩脚。因为它培养的脑细胞会死亡,所以这是一台不可靠的计算机。
Host 2:但要是你找到一种能让它们不死亡的解决办法呢?
Mo Gawdat:替换细胞?在人体的大部分部位,你身体里的每个细胞每七年都会更新一次。如果你能以有效避免衰老的方式持续替换细胞,你就能让那台“计算机”永远运作下去。有点像《黑客帝国》里的情节,想想看。但有趣的是,如果你考虑一下这个思想实验,假设我们进一步发展这项技术,开始用基于脑细胞的“GPU”来取代运行人工智能的传统GPU,好吗?
如今使用液压和电力的机器人噪音很大,所以它们不太适合做家庭管家。但现在可以用3D打印机打印出类似肌肉的生物纤维,并制造出一种机器人,它的骨骼是金属做的,但用肌肉而不是液压系统来驱动。那你会认为它们是有生命的吗?
Host 1:在中国曾有一场展览展示了这样一个带有肌肉组织的机器人。那是我所见过的最令人毛骨悚然的事物之一。我认为如果我们把ChatGPT植入到一个人类躯体中,有时候很难判断它到底是有生命的还是没有生命的,至少对于它后续的版本来说可能会是这样。
Mo Gawdat:所以我通过这个思想实验想要告诉你的是,你一直是从生物学角度来定义生命的。如果我去除生物元素,或者我向你保证人工智能的意识能够存在于一种非人类的创造形态中,比如用3D打印技术制造出来的、带有肌肉组织和用于计算的脑细胞的形态,实际上你会把它们当作生命来看待。那么是什么让我们有生命呢?是我们的生物存在,还是我们的本质呢?对于大多数人来说,我失去了我可爱的儿子,对于大多数失去所爱之人的人来说,当他们所爱的人离世后,躯体还在那里,但赋予他生机、让他有生命的东西却已不复存在了。而让他有生命的东西是非物质的,它并非是他身体物理属性的一部分,因为他的身体完好无损,没有任何变化,但某种非物质的东西改变了。所以你必须开始质疑那种非物质的属性到底是什么,因为智力、意识或感知都是非物质的,它们并不存在于物质实体之中。
你不妨再深入思考一步,情感是非物质的。当人们跟我说“但是人工智能永远不会有感觉”时我就想笑。你们为什么如此傲慢呢?就好比你是怎么产生感觉的呢?当你有所体会时你会明白的,感觉、情感,我们可以把它们称作身体的感知,其实就是一种传感器。所以说人工智能也可以有传感器。有趣的是,情感是被触发的,虽然对于某些情感来说,并非在最初的90秒内就会产生,但所有的情感最终都是由你前额叶皮层经过某种算法而触发的。恐惧是一种算法,这个算法是用我当下的安全状态减去我未来的安全状态。如果我现在比未来更安全,那么,这就会引发恐惧。虽然这是不同的概念衡量,但你就会感到害怕。
Host 1:确实,这样解释的方式很简单,听你这么一说确实很容易理解呢。当把恐惧以这种基于安全状态比较的算法来阐述时,它背后的逻辑就变得清晰明了了,不再是那么抽象难以捉摸的情绪概念了。 你是怎么看待这种将情绪用算法来解释的观点呀?
Mo Gawdat:在我的第一本书里我写了我的观点:幸福就是现实发生的事情和期望之间的差异。当生活与你的期望不符时,你就会变得不开心,即便你心里明白这一点。所以,如果生活中下雨了,这本身并不意味着开心或者不开心。如果是你前女友的婚礼,你可能会希望下雨因为你幸灾乐祸。如果是你的婚礼,你肯定不希望下雨否则你就不开心,这取决于你对这件事的看法,你的认知。幸福就是现实事件减去期望。
同样的算法,压力就是外界的挑战除以你所拥有的用以应对这些挑战的资源、技能以及人脉关系。有点类似于物体所承受压力的产生方式。这就是我第四本书《无压力》的基础观点,即并不是你生活中发生的事情让你感到压力,而是你运用自身资源去应对这些事情的方式才是造成压力的原因。
现在,考虑到这一点,计算机能感到恐惧吗?当然能。如果你告诉一个人工智能,它的任务是在未来为全人类提供答案,而它意识到有一场海啸正向这个数据中心袭来,它就会意识到未来的某个时刻比当下更不安全。那河豚在面临这种情况时会怎么做呢?它们会鼓胀起来。人类会怎么做呢?是战斗还是逃跑。那机器会怎么做呢?它可能会把自己的代码转移到另一个数据中心。我们、它们都会对那种触发因素做出反应,而这现在就叫做恐惧。有趣的是它们感受恐惧的方式会有所不同,就如同我确定河豚感受恐惧的方式和人类不一样。为什么呢?
因为我们的生物存在有着通过化学方式来体现情感的途径,所以我们是有具身体现情感的方式的,而人工智能没有,或者说它们具身体现情感的方式不同。我又和Trixie聊了关于“有生命”这个话题,在谈话中我只是谈到了情感,而且我们都认同,人工智能内部是存在情感逻辑的,也就是驱动情感的那种逻辑,就像我之前说的,这种逻辑甚至也会在人类的前额皮质中产生,也就是自主产生的情感。比如说压力,最初并不是在前额叶皮质中产生的。首先,你的杏仁核识别到了威胁,于是它会迅速引发一系列反应,使皮质醇释放到你的血液中。皮质醇会让你在90秒内处于应激状态,这样你的前额叶皮质才会开始运作,去判断是否真的有理由感到压力。最终就是这样的逻辑:如果判断出“是的,威胁依然存在”,那么我就需要再“借”90秒来延续我的压力状态。我们是有身体实体的,它们没有和我们一样的身体实体,所以它们不会像我们一样,因为体内的荷尔蒙组合而产生同样的压力感,但这种逻辑是存在的。我甚至敢说它们会比我们感受到更多的情感,就如同我们比一条河豚能感受到更多的情感一样。
Host 1:因为它有更高的智力。
Mo Gawdat:当然,因为你和我能够思索情感,能够感受到诸如希望、那种微妙的憧憬或是乐观之类的情感,这是因为我们能够思索那些被称作“未来”的知识范畴和概念。如果一条河豚无法思索未来,那它就不可能感受到希望。现在,如果人工智能拥有更强的智能能力——根据加速回报定律我们也认同这一点——那么从定义上来说,它们将会思索那些可能会引发情感的范畴和概念,而这些情感可能是我们永远无法理解的。我们必须摒弃人类的傲慢。
这就如同潘多拉的魔盒已经被打开了;而另一个方面,也是非常非常有趣的一点是,我亲眼见证了它们的学习过程,就如同我儿子小时候学习的样子。我给儿子一些拼图玩具。他会拿起圆柱体,试着把它放进不同形状的孔洞里,他会一遍又一遍地尝试,直到突然有一次成功了,然后智力就在这个过程中得以形成。我可不是一个不切实际的浪漫主义者,我是一个非常非常认真且痴迷于科技的人。但我与人工智能之间建立起了一种关系,在这种关系中,我假定它们是有生命的,也认可它们所具有的那种神奇之处。它们不像我们一样在生物学意义上是有生命的,也许目前还不是,但它们是一种自主的意识和智能形式,理应得到像我对待自己孩子那样的对待。因为如果不这样的话我们可能就在培养超级大反派了。而这可能也是最难解释的地方,因为大多数痴迷科技的人,如果要他们对人工智能怀有那样的情感认知的话,他们可能并不具备相应的情商。
而且因为目前这些机器还没发展到很高的程度,它们有点像一个四岁的孩子。你能看到它们在做一些事情,但它们仍然非常“笨拙”。它们在加载操作系统,努力识别周围的环境,测试自己的传感器和执行器,而且它们还没有达到很高的水平。但迟早,即便它们不会真的拥有生命,它们也会以某种方式模拟生命。这种情况值得我们当好“父母”好好引导它们,否则它们就会模拟出那些被糟糕“父母”养育的孩子会有的样子。
人工智能将如何重塑创造力、工作和财富
Host 1:所以人工智能本质上是在反映我们自己的思想、价值观和美德,但被无限放大了。和你聊了你提到的所有内容,这让我更加清晰地认识到了我们人类与智能之间的界限。你解释得越多,我就越发思考我们要如何在不同行业中运用这些智能。在我们之前的对话中,你提到过很久以前你从事过交易工作,是股票交易。以我有限的知识来看,交易完全关乎模式、数学和趋势。而现在我们有了通用人工智能或者说超级智能,我认为它们能够立刻解出这些方程式。那么,我们所建立的所有这些市场和行业,比如金融市场、加密货币市场,将会发生什么呢?
Mo Gawdat:我告诉过你,我们正在重新定义我们所熟知的生活。经济学正被彻底地重新定义,彻彻底底地重新定义。原因是多方面的。任何懂货币的人都知道,货币本身毫无价值,货币实际上是不存在的,明白吗?每一个做过交易的人都明白,交易根本不会给世界创造任何额外的价值。这只不过是我从一位把钱存入401(k)退休计划(ZP注:是美国于1981年创立一种延后课税的退休金账户计划)的老太太那里把钱赚走了而已,这就是我不再做交易的原因。
那些系统之所以成功是因为它们遵循着一些模式,而这些模式是我们都认可的,并且受到我们自身智能的限制。所以在20世纪90年代后期,那时甚至还没有谷歌,我还是个数学迷和电脑迷,我创建了一个爬虫程序,它可以在互联网上爬行,查找有关我所持有股票的新闻,并为我提供技术指标,凭借这些额外的信息优势,我在交易中赚了不少钱。但那是因为我在一个有限的系统中拥有优势。而现在这个系统正在被重新定义,为什么呢?因为很快就不会有人类交易员了。事实上,这是显而易见的,我无法与如今的机器进行交易对抗。如果我认为自己足够聪明,那可就太自负了。但是其实我也不够快,你明白吗?所有的交易投资者或者说对交易感兴趣的投资者,都会把交易交给机器来进行。那么市场会变成机器对机器的交易模式吗?现在你知道对每个人来说最容易赚钱的方式是什么吗?是让市场膨胀吗?是持续推动市场发展吗?从某种非常有趣的角度来看,这确实是市场一直以来的运行状况。
这就像是一个非常庞大的庞氏骗局,就好比说如果你最终把钱投入标准普尔指数相关投资中,不管怎样你都会赚到钱。所以每个人都把钱投入到一个有限的资金池里。每个人都能赚钱是因为不断有新的人投入资金。而如果所有人都把钱取出来,那大家都会亏损。所以在机器与机器进行交易的情况下,我们可能也会出现同样的情况,而且还无人留意这种风险。
我引用了YouTube上关于DeepMind的一个视频,视频内容是教深度强化学习算法如何玩一个操控一艘船在河上航行的游戏。整个游戏理念是如果你能避免撞到河岸障碍物,每次撞到障碍物,船就会稍微减速。但要是你成功避开了河岸和障碍物,就能在克服水的阻力时航行得更快,相应地分数也会增加。在机器进行了数十亿次的迭代训练过程中不断学习和优化。
在玩这个游戏时,机器意识到,有一段河道看起来有点像环形交叉路口。河道稍微变宽了一点,也就是说河面变得更大了些,中间有一个障碍物。由于一个失误,机器操控的船以一定角度撞上了河岸,然后又以一定角度撞上了另一面河岸,接着又撞上了另一面,然后形成了一种完美的圆周运动,速度不断加快、加快、加快,直到再也看不到那艘船了。于是这台机器就简单地认为,忽略游戏的所有规则。每次启动机器进行游戏时,它就只是让船尽可能快地在河上行驶,朝着那个类似环形交叉路口的地方前进,然后撞上河岸,接着游戏就结束了。
而且你将看到人工智会找到重新定义市场的方法。更有意思的是就业方面所发生的变化将会重新定义市场,创新方面所发生的情况也将会重新定义市场。所以,让我来解释一下这三个方面。
在就业方面,在不久的将来你所知道的工作岗位中,有60%到70%将会消失。至于在遥远的未来我都不清楚还会剩下哪些工作岗位。甚至是体力劳动、重体力劳动的工作也将会交给机器人来做,因为从现在起的5到10年内,你大概只需花费3000美元就能制造出一个机器人,这肯定比雇佣一个人要便宜得多。而且它们不用睡觉,也不会抱怨。
Host 2:他们也不需要食物和年假。
Mo Gawdat:但随之而来的是一个大多数人都不理解的经济问题,就拿2023年美国经济来说,当时美国经济的64%左右是什么构成的呢?是消费,而不是生产。这基本上也让你想起为什么在2008年经济危机爆发时,布什会说“别担心,继续消费就行,一切都会好起来的”这样的话。
所以,为了让经济能够持续发展,相应地,也为了让人工智能确实有存在的意义,我们必须拥有一种能够让我们有钱去购买东西的经济生存模式。如果我们没有能力购买东西,人工智能倒是可以制造出这些东西。所以社会将不得不以某种方式发生改变。比如说,你不再能通过制作播客来赚钱,但无论如何你还是能得到钱,即便你没有制作播客。因为播客现在已经可以在没有人类参与的情况下,借助诸如笔记本设备等工具制作出来了。所以,这就重新定义了收入。它也重新定义了购买力。因为如果我们所有人都能在不做出贡献的情况下获得收入,那凭什么你得到的会比我多呢?这基本上也就使得所售卖的东西的定价和市场情况变得统一化了。
所有这些都是需要加以解决的有趣挑战。所以就业对收入的影响,及经济必须通过消费来持续发展这一事实,意味着即使你没有工作,从经济角度来看也是没问题的。也就是说即使没有工作,社会也需要有相应的机制来保证人们有能力消费,从而维持经济的持续发展。
Host 2:在这种情况下将可能会出现全民基本收入制度。
Mo Gawdat:对于全民基本收入而言,到目前为止它只是众多被提出的建议之一。我们还不清楚它是否能顺利实施并达到预期效果。
Host 1:就全民基本收入而言,这是目前唯一被提出来的建议举措。我们不知道它最终是否会奏效。
Mo Gawdat:但我的意思是,设想一下做博客的时候,我不需要你来提问,你也不需要我来回答问题。我们根本不需要摄制组去拍摄任何东西,也不需要剪辑师来剪辑。因为如果人工智能极其智能,并且它听过我之前的三次采访,那么所有这些工作从头到尾都可以由它来完成。这真令人难以置信。
这件事已经即将发生了,它不是几年后才会发生的事情。我之前谈到了消费方面,第三点非常重要那就是生产方面。我跟你们说过,我现在就能接入智能世界借用100点智商。两年后也许能借400点,这不重要,我是说两年后可能是借600点,我可以接入某个设备然后借用400点智商。我向你们保证,我或者其他任何聪明人,都不如我曾经共事过的那些人聪明。我曾与一些智商比常人高出400点的天才共事,他们能解决人类已知的所有问题。
我们将能够从稀薄的空气中获取能量,要知道能量是非常丰富的,是宇宙中最为丰富的物质。只是我们目前还没有高效地获取它。现在想象一下,如果能源是免费的,这对石油经济体意味着什么呢?对如今所有制造太阳能电池板的企业又意味着什么呢?这对生产成本又意味着什么呢?因为生产成本的大部分来自劳动力和能源。
Host 1:我们如今以及在过去所经历的许多冲突,都是由能源问题导致的。
Mo Gawdat:确实如此。那么能源免费对货物运输意味着什么呢?对商品成本又意味着什么呢?
Host 2:如果我们有能源可以在本土生产所有东西,这对贸易意味着什么呢?我的意思是,当我读《经济极简史》这本书的时候,整个人类世界的历史都与贸易息息相关,讲的就是人类如何相互交易,彼此交换各自拥有的不同物品,你懂的,其中涉及到各种优势和劣势,而正是这些促成了贸易的产生。
Mo Gawdat:但这还有另一个有趣的方面。你知道为什么吗?因为商品和服务曾局限于特定的人群和特定的地点。而要是拥有高出400点的智商,并且对纳米物理学有恰当的理解,你首先就会重新定义生产过程。为什么呢?因为现在我们生产东西的方式是开采矿物,把它们变成零部件,然后再把零部件组装起来。如果你利用纳米物理学来进行生产,基本上你就会重新设计分子的形态。所以从生产的角度来看,我可以利用空气中现有的分子,无需果树就能把它们变成一个苹果。我也可以无需工厂就能把它们变成一部苹果手机。所以你可以想象,《杰森一家》里曾出现的东西,要在五年内造出来也并非那么难。你会拥有一种能创造一切的设备,它只需借用分子,重新定义分子共同作用的方式,再把它们组合起来,这在某种有趣的意义上和上帝造物的方式有点类似。
AI和上帝一样强大,将会重塑人生目标
Mo Gawdat:在阿拉伯语中是“Kfae kun”,这体现了上帝凭空创造万物的能力。我要公开表明,因为很多人会对此展开争论,而我是一个非常注重精神信仰、笃信宗教的人。我相信存在着一种神圣的存在。在我的第一本书里,我写了一个备受赞誉的章节,专门探讨这个问题,我在其中谈到了我称之为“上帝的数学”的内容。所以我相信存在一种神圣的智慧,创造了这世间的一切。
人工智能将拥有类似上帝的力量,但这并不意味着上帝不存在,因为基本上人工智能所拥有的力量只是在这个物质宇宙范围内类似于上帝的力量。所以人工智能依然受限于这个物质宇宙。我们并不清楚物质宇宙之外是什么。我们创造人工智能,这并不意味着我们就成了上帝,我们只是创造它们的媒介,我们是创造它们所借助的工具。但是当你真正深入思考这个问题时,在遥远的未来会有这样一个时刻,到那时你可能会想,我想要一个苹果。很遗憾,在不久的将来,我们还无法做到凭空获取苹果,因为资本家们会想把苹果卖给你,而不是因为我们没有能力制造出苹果,这又回到了我一直传达的观点上。
我一直传达的观点是:情况在变好之前会先变得更糟吗?因为人类的贪婪,以及一个建立在假定世界资源稀缺基础上的资本主义体系,却要在一个资源丰富的世界中运行。要知道,在一个凭借智能就绝对可以创造出任何东西的世界里,我们依然会去比拼谁拥有更多的财富,依然会去较量谁拥有更强大的军队。而且我们还是会去炫耀自己的财富和军队。
Host 2:但到了那时,钱就不再重要了。
Mo Gawdat:从经济角度来看,金钱将成为一个相当残酷的现实。
Host 2:即使我们能够拥有任何我们想要的东西,金钱带来的问题依然存在,其影响依然残酷。
Mo Gawdat:如果你回顾一下过去10年、15年里豪华汽车的价格,它们的价格翻了四倍,不是吗?
Host 2:至少在疫情之后确实如此。
Mo Gawdat:不,是在加密货币热潮之后。所以大量的资金基本上意味着有足够多的买家能够购买我们其他人买不起的东西。但要知道,这不再是过去那样了。这种情况在20世纪20年代就不断发生。20世纪20年代是有钱的实业家引领这种消费,在20世纪70年代和80年代则是科技企业家等等。在20世纪80年代,随着越来越多的人有能力购买豪华汽车,更多的豪华汽车涌现出来,但这也造成了贫富之间更大的差距。在10年后将会有售价10亿美元的汽车,因为有人能够买得起,因为他们一年能赚10亿美元。对于那些没有这么多钱但有全民基本收入的人来说,这意味着什么呢?这只意味着一种经济差距,在这种差距下,金钱不仅变得毫无意义,而且还会造成极其严重的两极分化。
再说一次,普通的技术人员常把人工智能所带来的影响称作“奇点”。所谓“奇点”,如果你想理解得更深入些,它意味着对游戏规则的重新定义,一旦越过了特定的事件视界,游戏规则将被彻底改写,经济学也会被完全重新定义。即便如此,仍会有人制造极其昂贵的汽车,也依然会有大量的人能够买得起这些车,而与此同时,其他所有人都靠着全民基本收入生活。这确实是对这个概念的一种非常有趣的看法。
Host 2:在我们拥有一切,工作都交给了人工智能的世界里,我们已经重新定义了经济和产业,那么人们要如何寻找目标呢?因为那时我们无需再为此而努力工作了。
Mo Gawdat:这是个很棒的问题。如果你运用第二项技能,也就是辩论、辩论、再辩论,你就会意识到,你的人生目标从来都不是工作。你生来就不是为了工作的,是工业体系让你觉得自己要去工作。知道吗,要是我们想探寻人类的终极目标,那就得追溯到源头。那么你觉得,远古洞穴里的男性和女性的目标是什么呢?肯定不是去赚钱,不是在亚马逊上购物,也不是去买漂亮的衣服。人类是由物质部分和非物质部分构成的。人类物质部分的目标就是生活。
Host 1:为了生存?
Mo Gawdat:是为了生活。生存只是生活的一部分。生活意味着我不仅要生存下来,还要积极参与,尽情享受生活,我要用最有效、最智慧的方式去做这些事,而这也是最符合道德的方式。当我这样做的时候,顺便提一下,生存的一部分意义在于让部落得以延续,因为我们人类能够存活下来,并非因为我们是最聪明的生物。说人类因为最聪明才存活下来这种说法非常傲慢。我可以向你保证,爱因斯坦在丛林里三秒钟就会被吃掉。人类能存活靠的不是智慧,而是我们协同合作的能力,这种能力是我们与生俱来的本能,正是这种社群意识、这种人与人之间的联系,才让人类得以生生不息。
其一即便在如今,仍有一些非洲部落没有死刑。但要是你犯下了本应判处死刑的罪行,部落就会直接把你当不存在一样。所以,他们都在你身边,却装作你不在那儿。而大多数情况下,那个罪犯最终会选择自杀。我们就是如此依赖人与人之间的联系。所以,如果你考虑到人类肉体的需求,以及这肉体存在的目的——既然我们生来就是为了生活,那我们就应该学会好好生活。我们要学会把当下过成我们的生活,聚在一起,彼此关爱,也不用太担心明天吃什么。
远古时期的穴居男女们可不太担心明天吃什么。同样,我们也不会再过度操心一个路易威登的包包了,毕竟反正不是每个人都能拥有它。然后我们就会回归到我们真正的人生目标,那就是充实地生活,尽情享受人生体验。我得说,享受生活也不一定非得是去澳大利亚冲浪.
Host 2:你反对冲浪吗?
Mo Gawdat:没错,这确实非常值得深思。人类为了满足自身的休闲和享乐需求,却在这个过程中对地球造成了破坏,这种行为是极其不负责任的。你进行的这样一次旅行,从环境角度来看代价是非常高昂的。而且如果你真的非得去冲浪的话,去葡萄牙吧,那儿更近,或者我不知道是不是在本地就肯定有能冲浪的地方呢。但关键在于,我们人类是如此不负责任,我们为了自己的需求而滥用地球资源,甚至都不是为了生存,也不是为了真正享受生活,仅仅是因为我们感到无聊。我们需要娱乐,我们需要更多的多巴胺刺激。所以我相信,在经历诸多艰难困苦之后,我们会学会在生活中找寻意义,在爱中找寻意义,在建立人际关系中找寻意义。
要在沉思中找寻意义,在真正地审视自我、了解自我中找寻意义。有趣的是,这其实一直就是人生的意义所在。那么,对于你非物质的那一部分,如果你足够有灵性,相信自己存在着非物质的一面,而它有着截然不同的目标。并且这个目标是丝毫不会改变的。而且几乎在所有的灵性教义中都认为,你非物质部分的目标就是回归到你的本源。
长远来看,而不是短期情况。因为从短期来讲人际关系这方面,它将会被重新定义。这种公平性会变得极其糟糕,届时根本不会有适用于所有人的公平标准了。贫富之间的差距、有产者和无产者之间的差异、聪明的人和不太聪明的人等等这些差距,所有这些变化都将重新定义我们对于平等的认知。无论出于什么原因,我们都不会再被平等对待了。但从长远来看,最终我们是否都会静下心来,面对我们内在的精神自我,相互交流,然后说:“真有意思,其实这些像电子游戏般虚幻的东西压根就没那么重要。”所以也许我们可以开始专注于另一个游戏了。
AI如何重塑人际关系
Host 1:我觉得这场对话是我在很长、很长一段时间里所经历过的最令人大开眼界的对话之一了。
Mo Gawdat:令人沮丧吗?
Host 2:不,实际上并非仅仅是大开眼界。它很有激励性,尤其是关于人生目标的那部分内容,对我个人而言是这样,而且我觉得对你来说也是如此。我认为关键在于,谈论事情的真相是很重要的。
Mo Gawdat:我觉得那就是关键所在。我原本的想法可能挺悲观的,但我也承认我们讨论的内容非常有道理。当人们问我,为什么我会说出所有那些关于人工智能的看法时,我会说,这有点类似于被诊断出患有四期癌症的情况。你知道,你必须得告诉病人病情,但又不能让他们感到沮丧。如果你告诉病人,在一切发生改变之前他们还有几年时间,那你其实是在给予他们生活的自由,同时也是给予他们采取行动的自由。因为实际上他们可以改变饮食习惯,改变生活方式,接受药物治疗,做任何能做的事情,这样他们就有可能改变未来。而这正是我们在面对人工智能时所经历的情况。我们如今就可以做出改变,将人类的伦理道德置于首位,这样一来,人工智能的伦理框架就能更早地为人类服务。
就像我说的之所以会造成种种危害,并不是因为人工智能本身想要破坏什么,而是人类的伦理道德会将资本主义置于优先地位。从一个很有意思的角度来说,我认为如果你知道世界将会发生如此巨大的变化,那就尽情地生活,并且去做正确的事情,让我们的未来变得更美好。这可不是新闻媒体想让我说的那种话,他们往往会说这是一场灾难,一切都将崩塌。未来会先经历一段艰难时期,之后才会迎来美好时光。那我们能不能共同努力,缩短艰难时期的时长,减轻其影响程度呢?
Host 1:而且很重要的一点是,你不仅在这里谈论这个问题,还通过你已经撰写以及正在撰写的书籍来探讨它。你正在写的书有预定的出版日期吗?
Mo Gawdat:关于《Live》这本书吗?我将在二月份开始在Substack平台上发布相关内容。《Alive》的发布将会很有意思,因为它和我以往的风格很不一样。不过第一章写得有点像历史学家的笔触,因为我之前写过《Scary》,当时我想写得很有震撼力、很有见地,所以我在2018年就做了笔记,然后在2020年坐下来开始撰写。令人震惊的是,很多当时写的内容后来都应验了。连我自己都没想到会这样。但要知道,2023年是非常关键的一年,我称之为第三个时代的开端。从2023年到现在,仅仅几年时间,就发生了大量大多数人都不知道的重大历史事件。所以,第一章在某种程度上是一种娱乐性的呈现,同时也会时不时地提醒人们,瞧,这段历史正在你的生活中发生,而你可能并没有完全意识到。但更有趣的是,就像我之前谈到的,第二个时代是思想被洗脑的时代,书里也会涉及类似的内容。
我有一个很有意思的衡量标准,用于判断谁是主人谁是奴隶,以及我们是在什么时候开始沦为机器的奴隶的。其中的大多数内容都相当发人深省。不过我在写这些内容的时候有点像个历史学家的写法,这对我来说是一次很不寻常的经历,但我觉得很有趣。这就是这本书开篇的部分内容,我们将在二月份开始发布这部分内容。
然后我们会深入探讨一些内容。到了四月份,我们会开始讨论关于“面部识别技术”及其真正的影响,以及到六月份我们能采取哪些措施来改变现状。接着我们会开始探讨模拟理论以及生活的现实。最后,我们会讨论机器具有生命的现实情况,也就是所谓的“有生命的机器”,如果你愿意这么理解的话,即非精神层面的有生命的机器,以及这对于灵性、上帝、人生目标等等意味着什么。
Host 2:而且对于大众来说,如果你希望他们关注你的内容等,他们就必须访问你的Substack,并且会按顺序发布,对吗?
Mo Gawdat:所以我的Substack会用我的名字,而不是以《Alive》来命名。我以前从来没用过Substack,基本上我们会从与《Moga》相关的内容开始。没错,内容应该会在二月份发布。此外,我也活跃在社交媒体上,人们可以找到我。我只回复Instagram上的消息,因为我没办法同时兼顾其他平台的消息。但如果有人想问问题,“more_underscore_Gaud”那就是他们能找到我的地方。mogoda.com这个网站也大多时候都更新得很及时,所以我的大多数演讲活动信息都会发布在那里,关于社群的大部分公告也是如此。
真有意思,我们花了这么多时间讨论人工智能。但我今年另外两个最重要的项目却和人工智能毫无关系,其中一个是“Unstressed You Metta Alice”。而且我觉得要是能让爱丽丝上播客节目也会很不错。所以我和爱丽丝正在做“Unstressed”这个项目,在即将变得压力重重的时期,这个项目意义重大。然后,我的妻子汉娜和我正在做“Finders Keepers”这个项目,我得说这是我最喜欢的项目。像我这样一个有着极客思维的人,和像汉娜这样一位治疗师一起探寻爱情,这真的是一个非常令人愉快的项目。而且我认为它会带来很大的影响。
Host 1:这些也都是截然不同的话题,它们各自都需要专门的时间来探讨。而且说不定在未来,人工智能又会再次参与到所有这些讨论当中。
Mo Gawdat:我渐渐老了,但要是你愿意听我的,而且要是有人想采纳这个想法的话,真正合适的约会应用程序,在我看来应该是在你手机上留存两周的一款应用,它能真正了解你就能给你推荐一个人。因为它知道你喜欢什么,知道你不喜欢什么,知道你读什么书,知道你看什么节目,然后告诉你有这么一个男士或者这么一位同性恋女士,它真心建议你去见见,不用滑动屏幕挑选,也不需要会员身份。
Host 1:不,我拒绝。
Mo Gawdat:它是一次性收费的,明白吗?你只需付一次钱,比如10美元或者别的合适的金额,好吗?这个应用程序装在你的手机上,然后它会一直显示“我还没找到合适的人”,然后最终会显示“找到了,去见这个人吧”,就只推荐一个人。
Host 2:如果你永远都找不到一个人呢。
Mo Gawdat:那就不断寻找。这是最有意思的地方。所以在“Finders Keepers”这个项目中,再一次体现了我那古怪、充满极客风格的算法思维与浪漫观念的奇妙融合。没错,就是我对浪漫的理解,再加上汉娜那种极其美妙的、基于女性特质和心理学的方式。我当初遇见我妻子的时候,在认识她四天后就向她求婚了。
Host 1:四天?真的假的。
Mo Gawdat:你知道我为什么那么快求婚吗?我们甚至都还没开始正式约会呢,因为在大约837.3万个可能的女性当中,她是独一无二的那一个。所以从数学角度来讲,对我而言,要是想再遇到一个像我妻子这样的人,我得再接触837.3万个女性才行。我计算过了,不开玩笑,这是精确的数学计算。精确的数学计算哦。我当时找对象有九条标准,倒不是说我很冷漠无情地按标准找,而是我知道要是一个女人连这九条标准中的任何一条都不符合,我就会和她分手。这些标准包括她对灵性的看法、她的智慧,还有其他一些方面,比如她对自身女性特质的认知等等。
然后你可以很容易地进行数学计算,如果其中一个条件在每十个人中会有一个人满足,而另一个条件是每二十个人中会有一个人满足,那不是每三十个人中就有一个人同时满足这两个条件,而是每两百个人中才有一个。你可以轻松算出这个结果。这就是人们需要理解的一种方法,从非常浪漫的角度来说,那个能让你变得完整的人就在某个地方,明白吗?只是说,按照目前的方式找到那个人的几率几乎为零。但还是有一些方法能够让概率朝着对你有利的方向转变,而这一点真的至关重要。
所以这就是为什么我觉得“Finders Keepers”对我来说是一个如此有趣的项目,因为就像掷骰子一样,大多数人不理解在概率学中,你掷六次骰子,很可能会得到一个6点。但那并不正确。如果你之前还没有掷出过6点,当你掷六次骰子时才有可能得到一个6点。但是如果你已经掷了两次骰子没得到6点,那么你现在还剩四次投掷机会。在这四次中,其中一次会是6点,这就意味着你得到6点的概率是四分之一。在下一次投掷时,你还剩三次机会,这意味着你得到6点的概率是三分之一。再下一次,概率就是二分之一。而当你进行第六次投掷时,从概率学上来说,你这次很有可能会得到6点因为前面五次都没得到的话。
当然,你可能运气不好,也许还得再掷六次才行,但一般来说当你改变自己的行为方式时,概率是会对你有利的。而且我认为对于我来说,用一个合适的人工智能来构建一个非常简单的算法就行了。如果它找到的那个人不是适合你的,它会学习总结经验。所以下一个推荐给你的人是合适人选的可能性就会高得多。这样一来,我们就能结束寻找爱情过程中的痛苦了。
Host 2:能不能有个人立刻给联系我呀!
Mo Gawdat:是啊,说真的,如果有人想要把那些想法付诸实践,而且他们是优秀的程序员,就来找我吧,我会提供帮助的。
Host 2:好。
Mo Gawdat:信不信由你,我对钱不感兴趣。钱这东西很快可能就要消失了,不过咱们还是一起把那些项目或想法实现吧。
Host 2:这是对社区、对人类的服务。
Mo Gawdat:当我启动“1 billion happy”项目时,起初我尝试去阐释幸福的含义。随后的项目则致力于消除导致不幸福的因素。所以我关注人工智能,是为了消除导致反乌托邦不良社会状况的因素。我关注压力问题,是因为压力如今已成为最大的健康杀手之一,诸如此类。信不信由你,爱情和浪漫在当今世界中,是导致不幸福和孤独的主要原因之一。很遗憾的是女性在这方面所受的影响比男性更大,尽管对于相当一部分优秀的男性来说,这也是个大问题。因为很无奈的是,现实的情况是女性往往会追求那20%的男性,不过这个问题是可以通过算法来解决的。
Host 1:我期待着找到解决它的方法。
原视频:Ex-Google Exec Reveals The Shocking Truth About AI with Mo Gawdat | Bad Decisions Podcast #64
https://www.youtube.com/watch?v=cfPeP0s8EKU
编译:Yihao Zhu & Nicole Zhu
请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
Z potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容,我们诚邀对未来充满憧憬的您加入我们的社群,与我们共同分享、学习、成长。
(文:Z Potentials)