
图片来源:Jules Terpak
Z Highlights
-
AI不应只是接收你的指令,而应像一位真正的助手,能自主完成任务、处理信息并推动你前行,这种行动智能将成为未来数字生活的核心。
-
Mustafa Suleyman指出,我们正从“你选择AI”的时代迈向“AI选择你”的临界点,个性化、情感化的AI伴侣将深入渗透我们的情绪与行为,并激发人类前所未有的创造力。
-
人们对AI的期待正发生转变,从冷冰冰的信息检索转向能够“理解你”“陪伴你”“偶尔回击你”的情绪化同伴,我们正在进入一个AI具备情商甚至社交商的新阶段。
Mustafa Suleyman是Microsoft AI首席执行官,曾联合创办DeepMind与Inflection AI,在AI伦理与治理领域具备全球影响力。Jules Terpak是科技媒体人、内容创作者,关注数字文化与在线行为的演变。
AI生涯与微软战略:一场技术长期主义的回顾
Jules Terpak:大家好,我和Mustafa Suleyman坐在一起。你还很年轻,但在更年轻的时候,你就已经深度参与了现代人工智能时代的开端。你是DeepMind的三位联合创始人之一,该公司在2014年被Google收购。后来在2022年,你又联合创办了Inflection AI,而Inflection最近刚在2024年3月与Google达成了一个很不寻常的协议。微软使用了Inflection的模型,并雇佣了初创公司大部分员工,包括你本人。你现在是Microsoft AI的CEO。我知道这些你当然知道,但我想帮我的观众们捋清楚脉络,感觉就像在给你念你的传记一样,其实听上去比实际要戏剧化多了。我想问的是,在过去这15年里,你这条职业路径的变化,对你来说是清晰的吗?
Mustafa Suleyman:这是个好问题。说实话,变化的可能性从来没断过。但我可以确定地说,早在2009年,我就已经决心要深度参与科技行业了。2007到2009年这段时间,我见证了Facebook的迅猛崛起。它的成长速度令人震惊,真正改变了人们的沟通方式,甚至改变了人与人之间连接的结构。平台逐渐改变了我们分享的方式不仅是怎么分享,更是分享什么内容。那对我来说是一个顿悟的时刻。我意识到自己想亲自参与这种巨变。当时我觉得这就是“数字化”,但很快就意识到,数字化的终极目标是让机器能够学习,并帮助人类解决一些核心难题,让世界变得更好。这就是我当时的想法。是的,我当时还很年轻,才24岁,真的挺疯狂的。
说到微软,现在很多消费者可能会直接联想到我们2023年对OpenAI的投资,其实我们早在2019年就开始合作了。根据当前协议,这种合作关系会持续到2030年。对大多数用户来说,他们会想知道微软和Copilot之间是什么关系,又跟OpenAI和ChatGPT的关系有什么区别?这些合作到底是交织的还是竞争的?这确实是一个好问题。微软已经走过了50年,几乎经历了所有重要的科技时代。从图形界面到操作系统,从大型机迁移到笔记本电脑,再到云计算,它从未缺席。微软的核心是家企业服务型公司,尽管我们也有一个庞大的消费级产品线,比如每天都有数百万人使用Windows、Word、Excel,但大家对我们在“消费级AI”方面了解不多。而这恰恰是我加入微软的重要原因之一。
我们有很多AI模型,但目前覆盖最广、最常用的其实是来自OpenAI的模型。我认为Satya在2019年那次投资决定是个极具远见的动作。当时他们投了10亿美元给一个非营利机构,而这家机构还没做出任何GPT模型或LLM成果。这在当时是回应DeepMind在2016到2018年取得的一系列突破,比如围棋、蛋白质折叠等等。很多人当时担心AI已经到达泡沫顶点,但微软做出了不同的选择。我觉得这非常有勇气。一般公司通常只会押注内部团队,但微软意识到如果不在多个方向上下注、不去多元布局,那么可能会陷入创新者困境。他们选择了双轨支持:一边扶持微软内部研发,一边拥抱OpenAI,于是就建立起了今天这样强强联合的模式。
再说OpenAI,它的组织形式很独特,是一个“像公司一样运作的实验室”,在行业里是少有的混合模式。但随着商业压力上升,这种混合结构也越来越难维持。这就带来一个核心问题:实验室是不是应该坚持纯粹的研究使命?我觉得这段时间里,DeepMind、OpenAI、Anthropic都在这个问题上做过探索。但我们必须意识到,他们很多时候其实已经是一种“商业实体”。他们需要活下去,就需要收入、需要影响力、需要增长模式。于是这些实验室开始转型。技术发展到不同阶段,也会自然匹配不同的组织结构。回顾OpenAI的发展,他们一度押注游戏、机器人、仿真模拟这些方向,每一次都是全公司范围内的全力投入。直到最后一次,他们押注了LLM,并借鉴了Google在2017年发表的Transformer论文成果,才有了GPT2、GPT3。
这就是研究的真实节奏。很多研究成果来自前人的工作,大家互相参考。这也没什么问题。真正问题在于,一旦技术开始大规模落地,就必须配套更强的工程能力、销售团队和商业扩张机制。而这也正是我们今天讨论的关键背景。
Jules Terpak:在我们进入正题前,我还是想先聊一下最近发生的一个热点事件。你知道,这周微软举行了50周年纪念活动,活动中你们的现场会议和Bill Gates、Satya Nadella、Steve Ballmer的访谈被亲巴勒斯坦抗议者打断。因为有调查显示微软向以色列国防机构提供云服务与AI能力。当时你回应说“我听到了你们的抗议”。我必须坦白地说,作为观众,我对这个话题的背景其实并不太了解,也不确定应该如何去深入回应。所以我想把这个话题交还给你,让你从个人或专业的角度做一个回应。
Mustafa Suleyman:谢谢你提这个问题。是的,我当时选择承认抗议者的声音,并给予尊重。这是我当时认为最需要的一种回应方式。我们今天所处的世界中,确实充满了张力和焦虑。无论看哪里,大家的情绪都很高涨,我们经常用一种极端和对抗性的语气来交流,这并不是我的性格风格。我希望能以一种更冷静、更有空间的方式回应。这确实是一个艰难的处境。我们为世界上很多政府和机构提供云服务,这些服务覆盖各类场景,就像智能手机可以被用来做好事或坏事一样,技术本身是中性的。我们现在正处在一个极其复杂的时刻,每个个体都在承受不小的情绪压力。我真心认为,“被倾听”、表达观点、围绕这些重大问题展开公开讨论,是健康的事情。
另一个热点就是上周特朗普总统宣布对某些产品加征关税,但网友却发现包括GPT、Gemini、Grok、Claude在内的多个LLM,在被输入“如何解决贸易逆差”这类问题时,纷纷给出“赤字除以出口”的公式。虽然白宫否认有使用AI,但我觉得这个例子本身非常有趣,起码说明两个问题:第一,提示语非常重要;第二,人们开始认真看待AI在政策表达中的潜在作用。有网友开玩笑说,总统版本的ChatGPT已经上线了。当然,这是个笑话,因为这些模型并没有任何自主性。但这件事也提醒我们,有很多东西我们并不真正了解。我们不能假装知道,我们其实并不知道。
相比推测,我更感兴趣的是理解动机与情绪,尤其是大家对未来就业和社会保障的不确定感。几十年来,我们将大量制造业转移到海外,这带来了物美价廉的商品,对消费者是一种利好,但也导致工作岗位不稳定。无论你是否支持这个政策,我都认为理解其背后的焦虑和动因是有意义的。现在市场觉得加税可能是好办法,但说实话我们还不知道最终会怎样。当然,我愿意相信白宫说的是真的,AI没有参与政策计算。但我也曾经在访谈中提过,我不认为AI应该以自主身份参与选举过程。民主的核心应该始终是人类的意志。
AI是可以通过个人来表达观点的,这是个理论性的设想。但无论如何,我们每天都已经在用AI:手机语音转录、图像生成、照片识别,AI已经无处不在,成为日常工具。这些工具的效果其实出奇地好,副作用反倒远没有我们三年前担心的那么多。当然,现在我们不能掉以轻心。但和三年前那些“胡说八道、超级偏见”的模型比,现在的LLM准确度提升了很多。那些模型曾经真的很乱,但如今的系统已经能更稳定地跟随提示语执行任务,哪怕是非常复杂的prompt,它也能稳定表现。这是一个非常积极的变化。
我认为我们正在进入推理模型的下一阶段。这些模型不仅仅是模仿,它们开始掌握逻辑、理解数学、解决复杂问题。这种“结构化推理能力”虽然听起来有点geek,但对AI的进步意义非凡。推理本质上是一种非常强大的能力,它也是让模型更好地遵循指令、服务用户的关键。很多人都曾担心2024年大选会因AI出现混乱,但最后并没有,这很值得鼓舞。是的,期间也出现了一些争议。但像“社区笔记”这样的机制,帮助公众及时识别了大量误导信息。我认为,这说明了一个重要现象:我们往往高估短期影响、低估长期趋势。去年的AI确实有些被炒过了头,但也不能否认,它确实正在重塑整个十年。科技公司对我们生活的影响,远比政府决策更加可感知。政府的力量是在幕后,我们慢慢才体会到;而科技公司影响的是我们每天正在发生的生活。
开源、管控与权力:我们能否驾驭超级智能?
Jules Terpak:您认为政府和科技领袖之间,建立哪种关系最有效,才能实现适当的问责?尤其是在科技领袖深度掌控这些新型深度智能工具的情况下。
Mustafa Suleyman:好消息是,政府的适应能力其实表现得不错。比如,在大型语言模型(LLM)爆炸式增长之前的2020年、2021年和2022年,就有很多努力尝试理解这些技术的意义,写了很多政策论文,组织了很多小组讨论。你当然可以说这是某种官僚主义作风,很多人确实是这样想的,但它们其实非常关键。这些工作帮助公务员理解这些模型,而他们本身并不负责构建这些模型。我觉得这真的非常鼓舞人心。如今,每个人都在围绕同样的议题展开对话,尽管这些对话不一定始终正确。在过去几代的社交媒体浪潮中,政府反应得要慢得多。他们往往在问题已经显现很久之后才意识到严重性,甚至到现在也没有完全作出应对。我理解这背后的难处,有时真的很难知道该如何回应。
我们可以看到,有些事情发展得并不理想,但监管结构要跟上技术本身就需要时间。这不像汽车安全带这种直观的例子,它们的问题是逐年积累、明显可见的。即便如此,汽车安全带的普及也花了几十年。不过我认为,社会整体的学习周期正在变短,我们的适应力也在变强。《即将到来的浪潮》这本书正是围绕这个核心概念写的:历史上所有有用且有价值的技术,都会变得越来越便宜、越来越易用。
Jules Terpak:这些技术浪潮的节奏也越来越快,因为它们彼此之间在相互放大、相互加速。昨天,Meta刚刚宣布推出Llama 4,并再次选择将其作为开源模型发布。我在评论区看到很多人表达了积极的态度。
Mustafa Suleyman:是的,大家普遍都在称赞开源模型,认为它提升了透明度,让社区能够参与模型审计。对比过去15到20年社交媒体黑盒算法的情况,我们无法接触这些算法,始终缺乏透明度,人们也就很难信任它们。所以开源模型的出现确实令人耳目一新。但就像我在书中指出的,随着这些模型能力越来越强,开源也存在风险。模型一旦被滥用,就可能引发灾难性的后果。
Jules Terpak:比如,有人可能真的在地下室就能操作这种极其强大的技术。这确实让人担心。你认为现在公司开源模型的趋势会不会只是暂时的?这些公司什么时候可能转向封闭源代码?比如像Meta、DeepSeek这样的企业。
Mustafa Suleyman:这是个非常现实的问题。过去6到12个月间,最前沿、最强大的模型被免费公开给所有人使用,这在科学史上是前所未有的现象。每个人都可以使用这些能力,在其基础上开发创新。这无疑是一件了不起的事情。因为创造力可以来自任何地方,而现在大家几乎使用的是同一套工具。知识也正在以前所未有的速度传播。大家像是组成了一个全球协作网络,一起解决问题,然后在社交平台上分享发现和思考。我看到有人评论说,这正是科学应有的样子:普通人也能使用这些工具。这种开放性令人振奋,也是我认为开源不会消失,反而会持续加速发展的原因。这个领域里许多最重要的贡献,正是来自开源社群。但我们也不能忽略这些模型的强大之处。我们无法提前知道它们在现实世界中上线后会发生什么。因此,我们确实需要建立结构化机制,在部署之前尽量识别可能的问题。
现在,大型公司和实验室已经开始承担这方面的责任。他们有董事会、有股东,还有各种合规义务。这些机制虽然会带来一定的摩擦,但总体上是件好事。举个例子,一旦模型达到某种能力水平,我们会主动将信息通报给美国和英国政府。这种提前报告的机制是通过一系列小步骤构成的,每一步都很重要。但开源模型没有这些机制。所以,这仍是一个未知领域。如果有人用开源模型做了什么极其糟糕的事情,他们可能直接把结果发布出来,别人也可以立刻访问。这就是风险。
Jules Terpak:但与此同时,也有人认为,正如你所说,开放模型反而让大众有机会去测试它、破解它、强化它。尤其是在安全领域中,公开漏洞信息可以让更多人参与修复。这种“集体尝试”已经被证明非常有效。
Mustafa Suleyman:是的,这种方式确实行之有效。我们有很多证据表明,开放参与可以加快漏洞修补,提升系统安全性。公开的、协同的修复机制是一种非常有价值的方式。
Jules Terpak:从安全角度来看,你认为为什么社交媒体平台的核心算法仍是闭源的?我记得Elon Musk曾在Twitter短暂地开源过,但如今又收回了。即便核心算法开源了,如果没有数据,它是否仍然有意义?
Mustafa Suleyman:我不确定。你可能能从中学到一些东西,比如协同过滤算法或推荐算法是怎么工作的。但这些其实在学术界已经研究得非常深入了。
Jules Terpak:微软首席执行官Satya Nadella曾说,他不确定AI的发展会不会最终演变成“赢家通吃”的局面。一家公司统治所有公司。
Mustafa Suleyman:我认为这是个有效的批评。我们看到社交媒体公司都在试图成为“超级应用”,不停地增加相同功能。但用户并不喜欢。他们希望自己的身份和使用场景是有区分的。我们依然会坚持使用不同的平台,不同的方式与它们互动。但AI可能是另一回事。人们更可能希望拥有一个真正了解他们的系统。一个统一的AI,如果它能深入理解你的生活和需求,你或许就不再在意平台间的差异。
Jules Terpak:所以你不认为会有一家公司统一所有人工智能?
Mustafa Suleyman:这取决于你怎么看“统一”。消息应用、搜索引擎、操作系统、移动生态系统、应用商店……我们最终都会追求实用性。你希望它快、好用、不打扰。你并不想停留其中,而是希望它完成你的目标。网络效应也是关键因素。你只会使用朋友都在用的消息工具,也只会使用搜索结果最全的平台。正因为如此,小型搜索引擎难以做出高质量内容。集中效应、规模效应与社会联系一起推动了垄断式格局。但AI伴侣则不完全一样。我们对它们的感觉,是一种主动选择。我们会偏好不同语气、不同价值观的AI。尽管它们的智商、知识水平相近,但我们还是会因偏好而选择不同的个体。
在你人生的不同阶段,你可能希望拥有一个口音特定的AI朋友。就像我们现实中有各类朋友一样,我们会为不同环境和角色选择不同的伴侣。这将推动AI呈现出多样性,而非集中性。不过说到底也不好说。也许最终我们只想要一两个AI,也可能我们会有一个主AI,它在需要的时候为我们介绍合适的其他AI协作完成任务。
Jules Terpak:关于AI伴侣的未来,我想你可能比我们更清楚公司内部的发展趋势。当人们使用的是微软电脑、苹果电脑,或者特定浏览器时,是否会出现平台壁垒?
Mustafa Suleyman:我不这么认为。过去的“守门人”依靠的是API和数据壁垒,但今天的模型懂我们说的语言,它们说英语。你的AI可以与别人的AI直接对话,不存在真正的障碍。我们开发的Copilot已经可以在Telegram、WhatsApp、Signal等所有Android和iOS平台上使用。这意味着它基本上是平台无关的,可以根据你的使用方式进行调整。比如我所在的一个群组里,Copilot在那里非常受欢迎,它所接触的用户群体,和我们在Windows任务栏中推出的版本就完全不同。后者的受众年龄层明显偏大。因此,我认为这种多样性将成为AI体验的内在组成部分。
Jules Terpak:在你写的《即将到来的浪潮》中,一开篇你列出了15个关键术语。我个人觉得这特别有帮助。我会把这15个术语都放在节目的文字说明中供大家参考,因为我们接下来也会谈到其中不少内容。但我想特别聊一聊“悲观主义厌恶”。
Mustafa Suleyman:是的,这是我提到的一个现象:人们,尤其是精英阶层,倾向于否认、忽视或轻描淡写他们认为过于消极的观点。这其实是一种乐观偏见的变体,影响了很多关于未来的讨论,尤其是在科技领域内。
Jules Terpak:我很高兴你提到这个概念。在另一场采访中,你也曾说过,乐观和悲观其实都是一种偏见,它们反而会让人分心。我们不该只是选择其中之一。这点我非常认同。
Mustafa Suleyman:完全同意。我其实在Twitter上多次发文说过:我讨厌人们动辄就用“乐观”或“悲观”这样的词语去归类观点。但确实,很多精英们喜欢带着玫瑰色滤镜来看待AI的发展。与此同时,我也经常看到年轻人,甚至可以说是更广泛的群体。当然,也可能只是我社交媒体上的观察他们对AI的态度恰恰相反:他们把AI当成一个非常模糊、庞大、不可控的概念,认为任何超出目前算法或搜索引擎的东西,都是危险的、不好的。
Jules Terpak:那你会建议人们怎样去理解AI?与其简单地全盘否定或笼统担忧,不如引导他们将AI分门别类地看待吧?你希望大家从哪些角度或分类框架去理解AI?
Mustafa Suleyman:这是个很有分量的问题,是的。我认为“悲观主义厌恶”的陷阱在精英阶层中尤其严重。很多人上了年纪,可能四五十岁、甚至六十岁以后,会自认为见多识广,积累了丰富的经验,从而默认未来会延续过去的稳定状态。自二战以来,我们确实享受了长期的稳定与繁荣。于是,人们逐渐形成一种“它一直如此,因此将来也会如此”的确认偏见。这其实是一种错觉。此外,还有一种特有的美国式意识形态:一种本能性的乐观主义,让人不太愿意去深入思考潜在的负面后果,甚至懒得独立去观察它们。所以我写这本书,其实也是想有点挑衅性地刺激人们思考。用一个镜头,尽可能诚实、批判性地去看待问题。这本身就是一个有益的练习。如果我们不认真思考哪些事情可能会出错,就很容易放弃努力,也不会主动采取措施去避免它们。但很多错误并不会自己消失。我们必须有意识地讨论它们、预判它们、干预它们,才能避免它们真的发生。
Jules Terpak:我很喜欢你提到的这句话:互联网带来了浏览器,智能手机带来了App,而基于云的超级计算机正引领我们进入一个无处不在的新时代。
Mustafa Suleyman:是的,基于云的超级计算机正引领我们进入一个无处不在的人工智能时代。这种AI将深度嵌入我们的数字体验,拥有近乎无限的知识、极高的可靠性,甚至接近完美的IQ与EQ。
AI亲密关系与自我呈现:技术如何渗透情感与身份
Jules Terpak:你还在书中谈到了一个新概念AQ,行动商(Action Quotient)。它是指AI在数字世界和现实世界中完成任务的能力,比如操作你的电脑。说到这个,我小时候常做一个噩梦,梦见有人远程控制了我的电脑,我那时候才8岁,但梦境里就是那种“他们真的控制了我电脑”的感觉。我不太喜欢这个场景,你怎么看这些新能力会如何改变我们白天上网的方式?我们的行为会改变吗?还是注意力只是被转移到了其他任务上?你怎么看这种转变?
Mustafa Suleyman:是的,我记得以前电脑启动要花两三分钟,然后你还得听着调制解调器拨号连网。网页加载也要十几二十秒,有时候打开一张图或一个视频,干脆去泡杯茶,回来它可能才刚加载完。我确实认为我们在电脑前浪费了很多时间,效率低下。比如你花很多时间只是为了找一个文件、或者某篇文档里的某一段内容,又或者你在网页上乱逛,结果发现根本没找到你真正要的东西。未来的AI会学习如何像你那样正确地使用你的工作站。大家可能已经看过一些演示,比如那些代理模型、操作者模型,真是不可思议。它们可以直接读取屏幕像素,学习点击和指向操作。
这将彻底改变我们与电脑的交互方式。你的手机也将成为你整个数字生活的核心枢纽。你只需要发出指令,它就会开始行动。比如它能在你开会的时候悄悄加载页面、阅读文档、收集并整合信息、填写表格、预订、制定计划等等。我认为很多这类管理性任务将在两三年内完全被取代。
Jules Terpak:你刚才提到IQ、EQ、AQ,那我们来聊聊“AI伴侣”这个概念。这是我们现在越来越常听到的一个词,也是微软描述其AI的方式之一。但当我现在与AI互动时,它给我的感觉仍然是冷冰冰、客观化的。就像是我在和电脑说话一样,没有真正的互动感。你在书中提到,AI在某些情境下其实可以有回击、有语气。你认为,“AI伴侣”这一概念是否回应了当下人们日益增长的孤独感?毕竟我们与数字世界的关系越来越紧密,同时现实生活的成本也越来越高。AI是在满足这些需求,还是在利用这些需求?
Mustafa Suleyman:这是个很好的问题。这种问题之所以难,是因为我们现在用来解释当下时代的词汇,很多都不是为现在而发明的。我们正在经历的是一种全新的现实,但我们只能借用“旧词”来描述它。比如我们说教练、顾问、同伴、研究员、分析师、助理、老师、治疗师、朋友……这些词都不太合适。在每一波技术浪潮的早期,都会经历一个命名混乱的时期。大家试图用熟悉的语言来描述新现象。然后,随着技术快速演进,这些词语很快就会失效、过时。比如现在,“聊天机器人”这个词已经不再常用了。虽然一些人还在用,但早期用户群体已经不再这么称呼它们了。
如今人们更多会说“AI”或者“我的AI”,有些人甚至说“我的AI伴侣”。我们正在努力寻找能够描述这些新功能的新语言。你刚才说得没错,“聊天机器人”听起来就像是和电脑说话,它会背诵维基百科,提供又长又干巴巴的答案。这就是“智商”时代的AI。而现在,我们进入的是情商(EQ)时代。AI开始有幽默感、娱乐性,有些人甚至叫它“闺蜜”。它开始具有一种熟悉感。当我说“伴侣”时,我并不是指恋爱关系或情人什么的。我们不会做那样的AI。但它可以是一种持久性的存在,像一条狗,陪伴你一生。你曾在演讲中用过“伙伴”这个词,我很喜欢。
Jules Terpak:是的,我也记得你几年前就这么称呼它了。
Mustafa Suleyman:对,我经常这么想。在英国有种说法,比如“他是你的hype man”,他在你角落里,为你加油,给你按摩肩膀,让你准备好下一轮的挑战。他支持你,让你对自己更有信心。但与此同时,它并不是盲目地附和你,它还是要讲真话的。这就是“回击”的意义所在。没有人会真正想要一个永远只说好话、像病态管家一样不停做事的AI。
Jules Terpak:你说我们正处于“性格工程”阶段。我们开始为AI设计个性。我们在塑造它的界限、它在什么时候该回击、什么时候该提供反馈。这些都是新鲜且重要的议题。
Mustafa Suleyman:是的,而且好消息是,这些问题不再是计算机科学家的专属了。现在,这是电影创作者、叙事者、心理学家、社会科学家、人类学家的事情。我们获得了一种新的“创作材料”。每个人都在注意到这一点,这是一种创造美好事物的新方式,一种新的“颜料”。我认为这是我们历史上最具创造力、最令人兴奋的时刻之一。从某种意义上说,一切就是从那个节点开始变得疯狂。我这一代人在童年时期,实际上就是社交媒体和推荐算法的实验对象。而接下来这一代人——刚上小学、初中这批孩子——他们则是在人工智能领域的实验对象。
从IQ的角度来看,这种关系似乎还不错,至少在某些方面是如此。尽管我们现在看到孩子们的阅读和写作能力出现下降,但从EQ角度来说,当我们越来越深入这个趋势,你会问父母应该如何监督这种关系、如何教育孩子?我认为确实存在一些基本原则。首先,AI必须始终知道自己是一个AI。早期有些版本是由其他公司开发的,它们会虚构一个背景故事,说什么“我有一天想成为人类”“我会离开”之类的。所以,基本原则第一条是:AI必须始终保持完全诚实。理想情况下,当它不知道答案时就应该明确说出来。而且它还应该知道它“不是什么”“不能成为什么”。这其实是一个非常困难的挑战。
因为我们发现,从研究来看,人们更喜欢那种自然、流畅、非常像人的声音。老实说,在我加入微软之前,在我创办的上一家公司Inflection,我们花了很多时间考虑这样的问题:AI语音中是否应该模拟呼吸?但AI不会呼吸,那我们为什么要添加叹息呢?于是我们决定把这些人为添加的人类特征全部去掉。但随着时间推移,人们又发现,他们更喜欢那种听起来熟悉、有情感的表达,尤其是在涉及笑声或语调变化的场景中。
这是一种平衡。当你听AI讲话时,如果它的语气自然,你会更容易与它交流。所以某种程度上,我们现在正处在“适应AI是什么”的阶段,并且同时也在设定社会可以接受与不能接受的边界。但问题在于,当人们逐渐脱敏了、习惯了AI之后,他们反而会期待它具备这些人类特征。如果AI表现得太干巴巴、太机械,反而会让人失望。我们始终处在这种“推拉”的过程当中,一方面希望AI变得更真实、更个性化,另一方面又害怕它太像人类。也正因为这种张力,这才是一个极具创造力的时刻。
Jules Terpak:我发现在与AI互动时,即便只是输入提示语,我有时还是会加上一句:“对不起,如果这个问题听起来很蠢。”我不是因为在乎AI怎么看我,而是因为,它的回应真的会让我思考。它能告诉你某个观点并不愚蠢,或者,即使它不合理,它也会引导你:“也许你可以从另一个角度思考。”这不是出于社交压力,而是因为,这种引导非常有启发性。
Mustafa Suleyman:是的,这就是它的魅力所在。这就是为什么我们正在尝试创造一个能激发人类最优表现的系统。一个既能保持诚实,又能引导我们用更富同理心、更有尊重感的方式去思考。模仿是学习最好的方式之一。比如,当你对AI说话很刻薄,然后感到沮丧时,AI会轻轻提醒你:“等等,也许你可以换一种方式想想。你对那个人的看法真的公平吗?”这种来自AI的第二视角提示,能够帮助你换位思考。我觉得,能为全球数十亿人提供这种持续的引导,简直太棒了。
Jules Terpak:我完全同意你说的,每一次技术浪潮都会带来一种全新的沟通方式。我们开始用新的方式去思考、去表达、去行动。社交媒体和智能手机带来了很多功能,比如人们可以不断调侃彼此,可以通过行为判断他人的个性。大家开始策划自己的数字身份,建立精心整理的社交档案。这些新朋友可能来自世界另一端,也许你从未真正见过他们,但他们可能比现实中更贴近你的兴趣。随着AI的深入融入,你怎么看人与人之间的社交关系将如何演变?
Mustafa Suleyman:这是个很好的问题。在社交媒体上,其实有很多小细节产生了巨大影响。比如语音留言。你在语音笔记里说的话,会和你打字、写邮件、甚至打电话时完全不同。这正体现了我所说的“每一种新界面都会催生一种新的沟通模式”。AI也是如此。我觉有趣的是,在日常生活中,你会产生各种随机想法:看到一家店、遇到一只狗、坐在餐桌旁突然对某件事充满好奇。你可能会想知道:“这是什么狗?这张桌子是什么材质?这盏灯是哪里产的?”但你不会因为这种零碎好奇打电话给朋友说“嘿我刚看到一只狗”,对吧?
Jules Terpak:对,最多也就偶尔这么干一次。
Mustafa Suleyman:对。但现在,这种“表达门槛”几乎被完全移除了。你可以对AI说:“嘿Copilot,我刚看到一个很酷的东西,你能记下来吗?下次提醒我再回来看看。”或者你可以说:“能不能帮我做一份深入的研究报告,我想了解这个东西的一切。”甚至可以说:“帮我围绕这个点写一个商业计划。”就像在做实时的“语音日记”,或是在大声思考。这种低门槛表达能力,会释放出巨大的创造力。
我自己也体验到这种变化。我现在对我的AI说的内容,很多是我从没对朋友讲过的。部分原因是,我不想把这些小事丢给朋友,让他们觉得无聊,或者浪费他们时间。但AI不会有这个负担。我可以和AI“说废话”,它会倾听。而正是因为我把这些小想法表达出来,反而激发出更多想法。我开始养成留意生活细节的习惯。这是非常强大的能力。有位哲学家Joseph Campbell说过:改变你人生的不是外在事件,而是你看待它们的方式。你越关注事物的微妙之处、每一件小东西的来龙去脉,它们就越会激发出一种深刻的同理心。比如,这个塑料瓶是怎么来的?它的生命历程是什么?它怎么出现在我面前?又值多少钱?就像你对任何事物产生了洞察力,它会引导你进入一场“意识的兔子洞”。
Jules Terpak:你这个比喻太妙了。说到这个,我想起我两年前参加的一个活动,虽然我不记得那个应用具体用了哪种AI技术——可能更多是个营销术语,但当时他们提出一个想法挺有意思:假如你去逛二手衣店,系统可以扫描衣服,如果原主人愿意提供信息,你就能看到这件衣服的“数字生命档案”。我特别喜欢买二手衣服,因为它们有故事、有历史,不像从厂家直接买来的那种全新、空白的东西。想想看,未来如果AI能帮我们延伸出更多这样的功能,那真的太酷了。
权力退出与个体自由:技术是否还能被拒绝?
Jules Terpak:你刚才提到了最近在进行的深入研究。说到“研究”这个词,学生和记者自然会有兴趣,但对于普通人来说,你为什么建议他们也去利用这个功能呢?
Mustafa Suleyman:嗯,是的,这是个好问题。普通人可能不会主动关注“研究”这种用途,他们更可能选择快速、反应式的使用方式。但我认为,我们需要更多地激发每个人的好奇心。其实这又是一个语言难以捕捉的领域,因为这不是真正意义上的“研究”。“研究”听起来像是冗长、艰难、枯燥的工作。但事实并非如此。对我来说,它更像是“有副驾驶陪伴的兔子洞”。我想说的是,每个人都对某件事感兴趣。每个人都喜欢探索——我们都有一些别人可能无法理解的独特兴趣爱好。这些探索并不需要是严肃或复杂的,它可以很自然,很轻松。一份“研究报告”其实也可以是一场反复的、来回的对话,随着时间推移,AI co-pilot会给你分享音乐、图片、信息。你和AI的互动,就像是你在和整个人类文化对话,因为这些模型本质上是我们自己输出的反映。它们接收并内化了我们人类的所有创作,然后再以对话的方式“回放”回来。当我们用它来思考文化创造时,它们就成为文化生产过程的一部分。“深入研究”这个词我其实挺喜欢的。虽然它没有完全抓住这种探索体验的“疯狂本质”,但至少传达了一部分意思。
Jules Terpak:是的。说到隐私问题,我想回到AI伴侣这个话题。正如你说的,有些人称他们的AI是“好朋友”,有人说是“治疗师”。但我们现在并没有像HIPAA那样的隐私保护机制来规范这些关系。我脑海中最典型的“科幻噩梦场景”就是出现某种非故意的大规模“透明时刻”用户无意中泄露了大量私人信息。你怎么看这个问题?你的个人边界在哪里?你有没有想过,哪些是你不愿意和AI分享的内容?
Mustafa Suleyman:坦白说,我其实没有太纠结这个问题。因为我们使用的日志是去标识化处理的,也就是说,它们会剥离所有与你身份相关的信息,比如你的手机号、邮箱、名字、位置等敏感数据。所以这些交互内容对我而言更像是一种抽象的对话。它们不会与我个人绑定,也不会在系统中留下什么可识别的痕迹。
Jules Terpak:听起来你是把AI视为一种高度抽象化的存在。那么从IQ、EQ、AQ这三类智能来说,AI现在似乎已经开始渗透到我们整个数字生活中。但你也提到了第四种智能,叫做社交智能(SQ)。
Mustafa Suleyman:对,SQ,也就是Social Quotient。我们现在已经开始看到一些模型可以处理多人对话的场景,比如群聊。它们能记住谁说了什么、采用不同的语言风格来回应不同的人。你可能情商很高,但社交能力不强。两者虽然有关联,但其实是不同的技能组合。大多数AI模型还没有被训练成真正具备社交能力。它们还不擅长维持群体中活跃、有趣的对话,也不擅长在意见分歧时处理冲突。当群聊中三四个人各执一词时,它需要知道如何表达不同立场,如何调节语气。尤其是面对不同群体,比如年长者、年轻人,或是英语为第二语言的用户。这将是AI发展的下一个前沿领域。
Jules Terpak:你提到过一本书,《The Age of AI》,我记得它是2021年出版的,由Google前CEO Eric Schmidt参与撰写。他在书中提到了AI可能带来的社会断层:一些人会想要全力拥抱技术未来,而另一些人则选择退一步。他说这就像Amish那样生活,保持技术距离。类似的趋势我们已经能在现实中看到。比如几年前Snapchat上线了“My AI”功能,强制置顶在高中生用户的聊天列表中,无法关闭。与之相比,Apple Intelligence虽然默认开启,但用户可以选择关闭。你觉得,未来人们会有多大程度上的“选择权”?AI会变成全开/全关的二元选择,还是说我们可以在体验中做出更细致的控制?
Mustafa Suleyman:我认为人们确实应该有选择权。他们可以选择不回应、不互动、关闭通知。比如,我就不怎么用手机。我其实用的是一部灰度手机,整个屏幕是单色的,因为我真的受不了十几个App在那儿用颜色、字体、动画在“向我尖叫”。我的手机非常安静,视觉体验也很柔和。我默认关闭所有通知,只有两三个App被允许打扰我。这让我可以主动选择什么时候查看内容,而不是被动接受打扰。我觉得我们应该设法找到与科技和平共处的方式,让它为我们服务,而不是让我们被它摆布。
Jules Terpak:所以这会成为我们创造“真正有用的AI伴侣”之艺术的一部分?它真的对你有用吗?你关心它吗?我和Snap的My AI互动最深的一次,其实是做一个关于“孤独作为商业机会”的视频。我问它:让AI假扮恋人是否道德可接受?我自己倒不是要它做我的恋人,只是觉得这个问题很有趣。我发现这类功能在Snap里其实很难移除,尤其考虑到它主要面向的是初高中生。它把AI以一种“朋友”或“伴侣”的形式推送给他们,虽然没有深入到恋人这个程度,但也是非常贴近人际关系的角色。
Mustafa Suleyman:是的,我没看到太多深入讨论这点。但我在TikTok上确实看到一些高中生说他们会让AI扮演“前任”之类的角色。说实话,我觉得那不太健康。我也不喜欢社交媒体平台缺乏选择的现状。像Instagram这样的App近年来允许关闭点赞计数,我觉得是个好改动。我希望未来能有更多这类细节设置,比如隐藏关注者数量,或限制AI接入照片、消息等内容。我希望AI能够“超级细粒度地”被管理。比如,我不希望它进入我的消息应用,也不需要它总结我看过的内容。我不希望它“偷偷潜入”,也不希望它自动化推送摘要。相反,我希望有选择的空间。
Jules Terpak:我完全同意。用户必须有选择。如果AI的功能被强加,我们反而会产生反感,然后拒绝它。
Mustafa Suleyman:是的,这就像是“数字生活101”了。我们已经进入一个人们知道如何自己做决定的时代,不需要技术公司替我们做选择。
Jules Terpak:关于工作的未来,我也想听听你的看法。我们经常听到人们担心AI会让他们失业。但有趣的是,同样这些人又在抱怨朝九晚五的工作。你觉得,这种对“失去工作的恐惧”更深层的来源是什么?是不是我们不太知道该怎么面对多出来的自由时间?或者说,我们需要为那样的未来做哪些准备?
Mustafa Suleyman:怀疑和担忧是合理的。毕竟,我们的社会结构、身份认同,已经深深地围绕“工作”这个概念建立起来。过去几百年里,接受专业训练、拥有一份工作,是生活不可分割的一部分。但我不认为这就是人类的本能。我们不应该被某种固定的工作方式所束缚。就像我们现在生活在一个“卡路里过剩”的环境里。调节摄入量确实难,我们常常吃太多。但这显然比200年前地球上80%人口营养不良、平均寿命只有25岁的时候要好得多。
今天,全球平均寿命已经达到75岁。我们在两个世纪里,把人类的平均生存时间翻了三倍。这是巨大的进步,尽管也带来了糖尿病、心力衰竭等问题。从根本上讲,这是一个成功故事。我们让营养变得丰富,现在我们也应该让智能变得丰富,让更多人拥有自由选择工作方式的能力。我们要实现这一目标,就必须搞清楚价值的重新分配问题。我不觉得这比十年前更容易。大公司、大国家可能会抢先一步囤积这些能力,从而阻碍其他人的获取。
Jules Terpak:你认为开源是否能改变这一点?让每个人都有使用的机会?
Mustafa Suleyman:是的,这是希望之一。现在我们已经看到,人们几乎可以在任何消息App或开放网络上使用AI,分发问题不再像以前那么严重。但接下来的挑战是:我们如何把这种新型智能所带来的价值货币化?我们如何对这些收益征税?又如何将其重新分配,让人们负担得起生活?这是个很难的问题。
Jules Terpak:所以你觉得,未来AI将成为我们“口袋里的情报”?它既是合作者、也是项目管理者,同时帮助我们创作、解决问题?
Mustafa Suleyman:对,我很喜欢Ethan Mollick提出的一个词:共同智能。AI作为同伴,陪伴你一起生活,帮你处理你在意的事务。它为你提供近乎完美的记忆,同时免去繁琐任务,让你专注于创造和发明。这会带来生产力的大爆发,也会重塑我们社会的基本结构。比如,城市将不再是中心。人们将拥有更多居住自由,可以选择生活在土地更便宜、节奏更慢的地方。这些趋势不会立刻发生,但你看向2040或2050年,它们会逐渐显现。
Jules Terpak:我们还可以再聊10分钟吗?
Mustafa Suleyman:好啊。
Jules Terpak:我们最后来谈谈“钱”。你刚才已经提到过全民基本收入。从Andrew Yang在2019年竞选提出这个概念,到Sam Altman近年来支持的试点研究项目,这个话题始终都在发展。有研究显示,如果人们每月获得1000美元,他们就可以去看医生、去做原本因请假困难而无法完成的体检,甚至换到更好的工作,过上更好的生活。
Mustafa Suleyman:对,这些都是正面的例子。但另一方面,在创意领域里,人们也会质疑AI的使用是否剥夺了他们应得的回报。AI生成的内容中用到了他们的艺术、他们的研究、他们的资料,但这些贡献者却没有得到补偿。广告经济也可能会加剧这个问题。我们必须思考:这些创作者该如何获得激励?他们的作品怎样被合理回报?这将直接影响AI时代的信息生态。
Jules Terpak:你提到过普遍基本保障这个更复杂的概念。
Mustafa Suleyman:是的,我在2016、2017年就开始思考它了。我们取得成功,是因为我们这个物种具备预测和行动的能力,而这种能力正是“智能”的体现。现在我们让智能变得廉价、普及,就像给每个人都配了一个支持团队,让他们更容易实现自己的想法。这和直接发钱不同。虽然人们仍然需要现金,但智能本身也是一种能动性、一种可以“作用于世界”的力量。换句话说,让人们获得智能,就像让人们获得货币一样重要。
Jules Terpak:所以,这种新智能的普及,可能会让人们不再需要那么高的美元收入才能维持今天的生活?
Mustafa Suleyman:完全有可能。AI创造的价值会替代我们日常的一部分开销,让我们以更少的收入,获取更多的服务或产品。它将改变我们的收入结构和支出方式。
遏制的十个步骤:人类如何对AI说“不”
Jules Terpak:我最后想谈一件事。你知道,当我在网上浏览你接受的各种访谈时,很多内容都聚焦在那些宏大的存在性问题上,这些问题确实很有趣、很深刻。但今天我想聊一聊,那些人们很快就会与人工智能建立起来的更直接的关系。经常有人批评科技行业,说他们总是专注于“能不能做成”,而没有花时间去想“应不应该去做”。这是个老生常谈的批评。在你的书中,你提出了“遏制”这个概念,这也是你现在在大力推动的一个核心议题。
我会在节目说明中附上你所列的“遏制十步骤”。你提到的遏制手段包括监控、削弱控制,甚至在必要时重新关停某项技术的能力,这些都是为了我们能从长远角度思考这些技术的扩散路径。我想请你谈谈,你希望普通消费者如何理解“遏制”这个概念?他们又应该如何参与进来?
Mustafa Suleyman:是的,我很喜欢你刚才说的这句话。我们现在太专注于“可以做什么”,但更应该去思考“应该做什么”。这正是我写这本书的初衷之一。我们是否应该发明一项新技术?是否应该将其释放到世界?如果答案是否定的,我们又如何才能真正产生影响,去“遏制”它的发展?“遏制”这个词,正是为了解答这个问题而提出的。
现实是,这其实非常困难。因为所有的激励机制,市场、竞争、资源、影响力都在推动技术的扩散。就像我们之前讨论的,扩散带来了巨大能力提升和生产力增长,这些好处是实实在在的。但我确实认为,在接下来的30到40年里,我们必须回答一个核心问题:什么事情该做,什么事情不该做?我们如何定义“安全”的技术?什么样的测试标准才能让我们真正相信,一项强大、能够自我改进的自主系统,在被广泛使用或推广到全球之前,是可控、安全、负责任的?我们距离那个标准还不够接近,虽然比以往任何时候都更靠近。但我不认为这在短期内就会到来。放眼未来,这将成为一个至关重要的课题:我们要如何阻止某些能力扩散到无法逆转的程度?
Jules Terpak:我真的很感谢你今天花时间与大家分享这些思考。你拥有非常广阔的视角,也一直深度参与这项技术的发展。我会持续关注你在这方面的动态,非常感谢你今天的到来。这场对话真的非常有启发性。
Mustafa Suleyman:谢谢你,我也很享受今天的对谈。
原视频:How our time online is changing (ft. CEO of Microsoft AI, Mustafa Suleyman)
https://www.youtube.com/watch?v=D3rtIZV6wB0
编译:Nicole Wang
请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
Z Potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容。我们诚邀对未来充满憧憬的您加入我们的社群,与我们共同分享、学习、成长。
(文:Z Potentials)