AI 时代的反直觉真相:为什么最强大的技术反而最难改变生活?
在 AI 发展突飞猛进的今天,一个奇怪的现象正在发生:技术的进步速度远远超过了它改变世界的速度。为什么会这样?未来,我们到底应该担心什么?
近日,OpenAI CEO 山姆·奥尔特曼(Sam Altman)做了一件不太符合“个人风格”的事:这位平日里最爱预言“AI 将毁灭人类”、最擅长画饼“AGI 就在眼前”的硅谷大佬,这次没有继续贩卖焦虑,而是坐在 TED 播客录音棚里,和组织心理学家 Adam Grant 聊起了一个更基础的问题——在 AI 真正改变世界之前,我们需要先理解什么?
以下是山姆·奥尔特曼在本次采访中提出的精彩观点:
-
“在几年后,几乎在任何话题上,你所能进行的最有趣、也许是最富有同理心的对话,将是与人工智能进行的。”
-
“我们的最新模型在几乎所有方面都感觉比我更聪明,但这并没有真正影响我的生活。”
-
“整个经济都会转型。我们会找到新的事情去做。我对此毫不担心。我们总会找到新工作,尽管每次面对新技术时,我们都以为所有工作都会消失。确实有些工作会消失,但我们找到了那么多新事情去做,希望能找到那么多更好的事情去做。我认为这仅仅是漫长的技术进步指数曲线的下一步。”
-
“这种能力的简单表述是,弄清楚要问什么问题将比弄清楚答案本身更为重要。”
以下是本次采访全文,由 CSDN 精编整理:
被解雇后的复杂情绪与深刻反思
亚当·格兰特:我得从过去一年里很多谈话可能都会提到的问题开始。被你自己的公司解雇是什么感觉?
山姆·奥尔特曼:那感觉就像一场超现实的迷雾。困惑是最初的主要情绪。后来,我经历了一切情绪,但一开始是困惑。
亚当·格兰特:然后呢?
山姆·奥尔特曼:然后是挫败感、愤怒、悲伤、感激……总之,所有的情绪都有。那48小时就像经历了一整套人类情感,范围之广令人印象深刻。
亚当·格兰特:那你在这48小时里是怎么处理这些情绪的?
山姆·奥尔特曼:说实话,当时有太多事情要做,从战术上来说,几乎没有时间去处理情绪。所以在那48小时里,我什么也没做。等到事情稍微平息后,我不得不立刻重新投入工作,尽管一切还在混乱之中。
亚当·格兰特:我记得史蒂夫·乔布斯在被苹果公司赶走多年后说过,“这一剂良药的味道实在是太苦了,但是我想病人需要它。”
这是否在某种程度上可以类比你的情况?还是说完全不同?
山姆·奥尔特曼:也许时间还不够长,我最近没有深入反思过。我觉得这在很多方面都与乔布斯的情况大不相同,毕竟他的经历持续了十年,而我的事情太短暂了——整个过程在五天内就结束了。就像一场非常奇怪的梦境,然后又回到工作中收拾残局。
亚当·格兰特:五天和十年相比,学习曲线确实有所不同,你从中学到了什么教训?
山姆·奥尔特曼:我学到了很多下次会做得不同的东西,比如我们在那个过程中以及之后的沟通方式,以及需要更直接、更清晰地说明发生了什么。我觉得在很长一段时间里,OpenAI都笼罩在一片疑云之中,而我们可以做得更好。
我知道我与一群优秀的人共事,但看到团队在危机中、在压力和不确定性下表现出色,这是我最自豪的时刻之一。看着高管团队在我缺席的情况下运作了一段时间,知道他们中的任何一个人都完全有能力经营公司,这让我感到非常自豪。我对挑选这些人、在某种程度上教导他们,以及公司处于一个非常强大的位置,都感到非常自豪。
亚当·格兰特:听到你这么说我很惊讶。我以为你最自豪的时刻会是支持你的员工数量之多。作为一名组织心理学家,看到内部如此强烈的忠诚和支持,我觉得令人震惊。
山姆·奥尔特曼:那确实感觉很好,但那并不是让我记忆深刻的原因。我记得我为团队感到非常自豪,但不是因为那个原因。
亚当·格兰特:我想这也很像乔布斯的风格。当被问及他最自豪的成就是什么时,他并没有说是Mac、iPod或iPad,而是打造这些产品的团队。
山姆·奥尔特曼:我不做研究,也不打造产品。我做了一些决策,但不是大多数。我能打造的是公司,所以我当然对它有归属感。
亚当·格兰特:那你实际上做了什么?你的时间是怎么安排的?
山姆·奥尔特曼:这是个好问题。在任何一天,情况都相当不同,也很混乱。不知何故,清晨总是不太混乱,但到了下午,事情往往就失控了,各种事情都在发生,你处于一种被动应对和灭火的模式。所以我学会了在一天的早些时候完成真正重要的事情。我大部分时间都在思考我们的研究和我们打造的产品,其他事情则少花时间。但具体在任何时刻可能是什么样子,那就很难说了。
人工智能与人类未来的思考
亚当·格兰特:过去几年里,你彻底改变了世界,我一直很好奇:人类会面临什么变化呢?
我一直关注着一些有趣的研究,结果发现人类的“落后”速度比我想象的快得多。在创造力、同理心、判断力和说服力方面,人类似乎已经被抛在了后面。我想听听你对这些领域的数据有什么看法。
不过,先说说你对整体情况的看法吧。人工智能如此快速地超越人类的许多能力,你感到惊讶吗?
山姆·奥尔特曼:我们最新的模型在几乎所有方面都显得比我更聪明,但它并没有真正改变我的生活。
亚当·格兰特:真的吗?
山姆·奥尔特曼:我依然关心和以前一样的事情,只是工作变得更高效了。
随着社会逐渐消化这项新技术,我相信社会的发展速度会加快,科学进步也会更迅速。我们如今与这个令人惊叹的新事物——无论是工具还是其他什么——共存,但你的日常生活和几年前相比,感觉有多大不同呢?
其实并没有太大变化,对吧?我认为从长远来看,人工智能确实会改变一切。但十年前我天真地以为,当我们有了像现在这样强大的模型时,一切都会立刻改变。现在看来,这种想法确实太天真了。亚当·格兰特:这其实是个常见现象。我们总是高估短期的变化,而低估长期的变化。
山姆·奥尔特曼:没错
亚当·格兰特:所以,你现在就处于这种状态。
山姆·奥尔特曼:最终,我认为整个经济结构都会发生转变。我们会找到新的事情去做,我对此毫不担心。每次面对新技术,我们都会以为所有的工作都会消失,但历史证明,我们总能找到新的工作机会。确实,有些工作会消失,但我们总能找到许多新的事情去做,而且希望这些新工作会更好。我认为这不过是技术进步长期指数增长曲线中的下一步而已。
互联网的不同方面及未来预测
亚当·格兰特:我觉得在某些方面,人工智能革命看起来和互联网革命完全相反。因为当年互联网刚兴起时,很多企业管理者都不相信互联网会改变世界,结果他们的公司倒闭了,因为他们没有做出必要的改变。比如,他们没有意识到自己需要一个能正常运作的网站,也没有学会如何通过网站销售产品。
对吧?适应数字化革命并不需要多么高深的知识。但如今,我听到很多创始人和CEO的说法却完全相反。大家都认为人工智能是颠覆性的,但没有人清楚它对领导力、工作、组织、产品和服务到底意味着什么。大家都摸不着头脑。
亚当·格兰特:我很想听听这些观点。我自己也有一些假设。其中一个假设是,我们可能会停止看重能力,转而开始看重人类的灵活性。
山姆·奥尔特曼:我们会继续看重某种能力,但不会像现在这样过度看重纯粹的智力水平。
人工智能时代的关键能力与教育变革
亚当·格兰特:那么,你认为哪种新能力才是重要的呢?
山姆·奥尔特曼:简单来说,弄清楚该问什么问题比找出答案更重要。
亚当·格兰特:这和我过去几年的观察一致。过去,我们特别看重一个人大脑里积累了多少知识,如果你是个“事实收集者”,就会被视为聪明且受人尊敬。但现在,我认为,能够把信息串联起来、发现模式,比单纯收集事实更有价值。如果你能综合信息、识别模式,你就拥有了优势。
山姆·奥尔特曼:如果你看过电视剧《太空堡垒卡拉狄加》,剧中有一句台词反复出现:“这一切以前发生过,这一切还会再次发生。”当人们谈论人工智能革命时,它确实有一些非常重要的独特之处,但同时也让我想起了以前的技术恐慌。比如,我小时候,互联网上出现了一种新事物——谷歌。我觉得它很酷,其他人也觉得它很酷,它显然比之前的东西好多了。虽然我还不够大,没有亲身经历,但大孩子们告诉过我。老师们甚至开始禁止使用“The Google”。
亚当·格兰特:他们把Google称作“The Google”吗?
山姆·奥尔特曼:就是谷歌。如果所有事实都能通过搜索找到,那去历史课上学、背诵事实还有什么意义呢?我们似乎会失去一些关于如何教育孩子以及如何成为一个负责任的社会成员的关键东西。过去,要查找事实,你得发动汽车,开车去图书馆,翻卡片目录,找书……而现在,事实就在那里,一搜即得。这让人感觉不公平,甚至有些不对劲,好像我们会失去一些重要的东西。但随着技术的发展,我们有了更好的工具,期望也随之提高。人们能做的事情变得更难、更有影响力、更有趣。我预计人工智能也会是这样。
如果你几年前问别人两个问题:A,2024年会不会出现像O1这样强大的系统?B,如果有人告诉你这是错的,但确实会出现,世界会发生多大的变化?大家的回答大概率是:第一个问题的答案是错误,第二个问题的答案是我们可能会陷入困境。然而,这件令人惊叹的事情还是发生了,而我们被困在这里。
人工智能对科学家创新影响
亚当·格兰特:在创新领域,艾登·托纳·罗杰斯的最新研究为研发科学家带来了好消息。研究显示,当科学家借助人工智能时,他们申请的专利数量增加了39%,这进一步推动了产品创新,增幅达到17%。
这些成果大多是突破性的,比如发现全新的化学结构。不过,主要受益者是顶尖科学家,而不是底层科学家。如果你处于科学家群体的后三分之一,几乎感受不到什么好处。但对于顶尖科学家来说,他们的生产力几乎翻了一番。这是因为人工智能自动化了许多创意生成的任务,让科学家们可以专注于评估创意。优秀的科学家擅长识别有潜力的想法,而能力较弱的科学家则容易被误导。
这听起来很不错,对吧?这无疑是科学创造力的巨大释放。但代价也很明显:研究发现,82%的科学家对自己的工作满意度降低了。他们觉得自己从事的创造性工作减少了,技能也得不到充分利用。似乎在人工智能的辅助下,人类的角色从“创造者”或“发明者”变成了“评判者”。
我很想知道你对这些证据的看法,以及我们该如何应对?
山姆·奥尔特曼:我对这个问题有两种矛盾的看法。对我来说,OpenAI最让我欣慰的事情之一就是,当我们发布这些新的推理模型时,我们会把它们交给那些伟大的科学家、数学家、程序员等,然后听听他们的反馈。听到他们讲述这些工具如何改变他们的工作方式,让他们能够以全新的方式开展研究,这让我感到非常高兴。
我自己也从创造性地推理问题、找到前所未有的答案中获得了巨大的职业满足感。但当我想到人工智能可能会接管这些工作时,我确实会感到一丝失落。不过,我认为现实中会发生的是,我们将以一种全新的方式来解决这些难题。真正让人感到快乐的,是积极参与解决最难的问题。如果我们用新的工具以不同的方式增强自己的能力,我想我们最终会适应,但我也不确定。
人工智能与人类工作的未来
亚当·格兰特:那么,你目前的工作中是怎么应用这些技术的呢?比如,你用ChatGPT解决工作问题时,具体是怎么操作的?
山姆·奥尔特曼:说实话,我用它的方式很普通。比如帮我处理电子邮件,或者总结文件,都是些很基础的用途。
亚当·格兰特:这么说,你对人类能够适应这些变化,并继续参与创造性工作还是挺有信心的?
山姆·奥尔特曼:没错,我很有信心。这和人类的精神本质有关,我相信不管技术怎么发展,人类的创造力都会以某种形式延续下去,只是形式会有所不同。
亚当·格兰特:还有一个领域,我一直以为人类会比机器坚持得更久,那就是同理心。我读过一些实验,结果很有趣:如果人们在文字交流中不知道对方是人类还是ChatGPT,事后被问到“你觉得自己被理解了多少?被倾听了多少?得到了多少同理心和支持?”很多人会觉得自己从AI那里得到的同理心和支持比从人类那里还多。但一旦知道对方是AI,他们就不喜欢这种感觉了。
山姆·奥尔特曼:没错。
亚当·格兰特:作为一名心理学家,我对这些结果有两点反应。首先,我不认为AI在同理心方面真的做得很好。问题可能出在人类身上——我们的同理心水平本身就不高。我们很容易陷入“对话式自恋”,别人倾诉问题时,我们总是立刻联想到自己,而不是真正为对方着想。所以,这可能只是反映出人类同理心的起点太低了。但我也在想,随着技术越来越人性化、拟人化,“如果我知道这是AI做的,我就不想要”这种心态还能持续多久呢?
山姆·奥尔特曼:说到这儿,我想先讲一个更普遍的现象:很多时候,人们更喜欢某样东西,只要它来自AI,直到他们知道这是AI做的,然后态度就变了。这种情况很常见。我最近看到一项研究,即使是那些声称最讨厌AI艺术的人,在不知道的情况下,也会选择更多AI创作的作品作为他们最喜欢的画作,直到被告知哪些是AI做的,哪些不是,他们的态度立刻就变了。
我们可以举出很多类似的例子。AI在很多方面已经迎头赶上,但我们人类本能地更关心人类,而不是AI,这其实是个好现象。我们都在猜测未来会怎样,我对这些变化的不确定性很高。但我相信,尽管未来你可能会更多地和AI交流,但和人类交流的感觉仍然会很重要。这种对人类交流的重视是深深植根于我们的生物学、进化历史和社交本能中的,不管你怎么称呼它。
人工智能与人际联系的边界
亚当·格兰特:我们为什么仍然渴望真实的人际连接呢?这听起来有点像罗伯特·诺齐克的论点,就像在《黑客帝国》中,人们更愿意选择真实体验而非模拟的快乐。你觉得这就是我们真正渴望的吗?我们是不是更想要那种真实的人际连接,哪怕它有缺陷、显得混乱?当然,人工智能迟早也会学会模拟这些。
山姆·奥尔特曼:我觉得你会很快发现,一直和一个毫无瑕疵、完美共情的东西交流,时间长了,你反而会怀念那种戏剧性、紧张感,或者别的什么。我们天生就非常在意别人的想法、感受,以及他们如何看待我们。
这种情感很难转移到人工智能身上。和人工智能聊天可以很有趣,甚至能让你感到被认可,就像玩游戏一样是一种不错的娱乐方式。但它无法真正满足我们融入群体和社会的需求。当然,我可能错了。也许有一天人工智能能完美地操纵我们的情感,如果真到了那一步,我会很难过。
亚当·格兰特:我也有同感。人工智能确实很难替代那种归属感。而且,从机器人那里获得认可、觉得自己重要或者酷炫,也很难做到。我们总是依赖于他人的目光和倾听来获得这些感受。
山姆·奥尔特曼:这正是我想说的。我想象过一个未来,人工智能的能力远远超过人类,能做很多令人惊叹的事情。但即便到了那时,人们还是会非常在意彼此,依然会纠结于相对地位,甚至那些看似“愚蠢”的社交游戏。不过,我不觉得很多人会把人工智能的能力当作衡量自己的标准。
亚当·格兰特:我一直很好奇一件事。在如今这个信息越来越复杂、事实越来越难以说服人的世界里,阴谋论的流行就是一个很好的例子。很多人相信阴谋论,是因为这让他们觉得自己很特别、很重要,好像掌握了别人不知道的秘密。当然,这并不是唯一的原因,但确实是其中一个重要因素。
问题是,这种信念很难被别人说服改变,因为那意味着要承认自己错了。我最近读到一篇论文,作者是科斯特洛(Costello)、佩妮·库克(Penny Cook)和兰德(Pand)。他们发现,如果人们和人工智能聊天机器人聊一次,即使几个月后,机器人也能让他们放弃很多阴谋论。机器人是怎么做到的呢?它从你相信的一个虚假主张入手,逐步引导你。
山姆·奥尔特曼:是的。
亚当·格兰特:我们正在努力揭穿这些错误观念。这种方法之所以有效,一方面是因为它能够针对人们坚持的信念进行具体回应;另一方面,人们在机器面前不怕显得愚蠢,就像在人类面前那样。结果呢?大约20%的人不仅放弃了他们那些荒谬的阴谋论,还放弃了一些人工智能根本没针对的其他错误观念。这就像打开了一扇大门,令人兴奋不已。当然,这种技术既可以用于正道,也可能被滥用,但我很想知道你对这个新机会的看法,我们该如何利用这些工具去纠正人们的错误观念呢?
山姆·奥尔特曼:世界上有一些人能够拓展我们的思维,这种能力非常强大。但这样的人太少了,能和他们交流是一种难得的幸运。如果能让人工智能成为世界上最棒的晚宴嘉宾。它无所不知,对任何话题都感兴趣,还能花时间帮你拓展思维,那肯定是件好事。我也有过类似的经历,和人工智能交流就像和某个领域的专家对话,它改变了我对世界的看法。当然,真人也能做到这一点,只是我恰好没遇到罢了。
人工智能的准确性对配合人类工作的影响
亚当·格兰特:不过,这也引发了关于“幻觉”和准确性的很多问题。作为一个外行,我很难理解为什么这会是个难题。你能用简单点的方式解释一下吗?别太专业了。
山姆·奥尔特曼:很多人还停留在2021年的GPT-3时代,那时候的技术确实不行,幻觉问题很严重。现在的ChatGPT虽然仍有幻觉,但总体上已经很稳健了。我们训练这些模型是基于它们之前见过的所有文字,但训练数据里难免有错误信息。有时候,模型也会出现无法正确泛化的情况。教会模型何时应该坦诚地说“我不知道”,而不是盲目猜测,这仍然是一个研究方向,但已经比过去好多了。我们的新推理模型在这方面又有了很大进步。
亚当·格兰特:我在不同版本的ChatGPT里试过提示,比如“这是真的吗?请确保答案准确。”我觉得这应该成为迭代过程中的一个必要步骤。你觉得呢?未来会不会自动变成这样?
山姆·奥尔特曼:我觉得这肯定会成为过程的一部分。当然,未来还会有其他改进,但这肯定是方向之一。
亚当·格兰特:过去一两年有不少相关研究,但上周有个研究让我大开眼界。单独的人工智能比单独的医生表现更好,这不奇怪,但人工智能甚至超过了医生和人工智能的组合团队。我觉得问题在于,医生们在不同意人工智能的判断时,会强行推翻它。
山姆·奥尔特曼:这种现象在历史上其实一直存在。比如人工智能刚开始下棋的时候,先是人类厉害,后来人工智能超越了人类,再后来有一段时间,人类和人工智能合作比单独的人工智能更强,因为他们能整合不同的视角。但最终,人工智能又超过了人类和人工智能的组合,因为人类会推翻人工智能的正确判断,甚至犯错。如果你总想着推翻人工智能,那肯定行不通。另一方面,我们其实才刚刚开始探索人类和人工智能该如何合作。人工智能肯定会在诊断上超越人类医生,但这未必是坏事。人类在其他方面肯定更有优势,或者至少患者更希望由人来完成这些工作。我觉得这很重要。我最近一直在想这个问题。我马上就要有孩子了,我的孩子肯定不会比人工智能更聪明。对于即将出生的孩子来说,他们唯一会了解的世界就是一个拥有人工智能的世界,这会是他们的常态。人工智能比我们聪明,能做我们做不到的事,但这又有什么关系呢?我觉得这只是在我们这个过渡时期显得奇怪罢了。
亚当·格兰特:从某种角度看,这其实是一种让人谦逊的力量,我觉得这挺好的。但另一方面,我们其实还不太会用这些工具,对吧?有些人可能已经对这些工具的依赖变得太快了。
山姆·奥尔特曼:我现在连复杂单词都不会拼写了,因为我相信自动更正会帮我搞定。我觉得这没什么大不了的。其实很容易对这些事情产生过度的担忧,哪怕人们更依赖人工智能来表达想法,也许这就是未来的趋势吧。
人工智能时代的写作和思考
亚当·格兰特:我见过一些学生,如果没有ChatGPT在手边,他们就不愿意写论文,因为他们在起草初稿的任务上已经生疏了,他们习惯于将很多工作外包出去,然后有现成的素材可以使用,而不是需要在空白页面或闪烁的光标前自己生成内容。
我觉得这种依赖性确实有点在增加。你有没有想过我们该如何防止这种情况?还是说这就是未来,我们应该习惯它?
山姆·奥尔特曼:我不确定这是否是需要防止的事情。对我来说,写作是一种外包式的思考,非常重要,但只要人们用一种新的写作方式来替代更好的思考方式,这似乎方向上是没问题的。变得更有名的一个遗憾之处是,如果我没有完美地表达一切,哪怕对我或OpenAI来说只有微小的好处,我就会招致大量的攻击或别的什么,这确实令人沮丧。
亚当·格兰特:我觉得,随着你失去这种特权,你无法再随意地在公共场合即兴发挥和尝试想法,也无法接受自己部分是错误的,或者想法还不完整。
山姆·奥尔特曼:大部分是错误的,但其中也有一些亮点。
亚当·格兰特:话虽如此,我们中的一些人还是很感激你比一些同行更谨慎,他们根本不进行自我反思或自我约束。
山姆·奥尔特曼:这是另一回事。就像做一个深思熟虑、比较谨慎的人,我觉得更多的人应该这样做。
我认为真正愚蠢的是,一种相当常见的工作流程是:某人会写下他们想对别人说的要点,让ChatGPT将其写成一篇漂亮的多段落邮件,然后发给另一个人。那个人随后会将这封邮件再输入到ChatGPT中,让它提取出三个关键要点。
所以我觉得这种写作和沟通的残余形式可能已经没有太多价值了,我愿意接受一个社会规范逐渐演变的世界,大家可以直接互相发送要点。
人类在人工智能世界中的定位
亚当·格兰特:我觉得ChatGPT应该有个水印,或者至少有个内部记忆功能。比如,当它生成内容时,可以提醒用户:“嘿,这段内容是我生成的,你得回去告诉对方他们需要的是要点,这样以后沟通才能更清晰。”问题在于,很多人对新技术的适应速度太慢了。不过,人类的创造力真的很有趣。我想到的是沙伦·帕克(Sharon Parker)和她的同事们的一项研究,这是关于机器人技术的。他们去了一家制造公司,那里的机器人正在逐步取代人类的工作。但员工们并没有惊慌失措,反而说:“我们需要找到独特的价值,我们需要在工作中找到意义。”于是,他们开始研究机器人,找出机器人的弱点,并把这变成自己的核心竞争力。
现在,O1和推理技术的进步让我有点担忧。我们去年认为能让我们与众不同的技能,现在已经过时了。比如2023年流行的那些提示技巧,现在都不再适用了,有些可能永远用不到了。那么,50年、100年甚至1000年后,人类还能做什么呢?
山姆·奥尔特曼:谁知道呢?但我认为更有趣的问题是,人类今天能做什么?我的答案是:对他人有用,而且我认为这种情况会一直持续下去。多年前,保罗·布赫(Paul Buhe)对我说过的话一直让我印象深刻。那是在OpenAI成立之前,他一直在思考未来的问题。他觉得有一天,人类会有一种货币,机器也会有自己的货币,两者完全独立,互不关心。我不认为这种情况会完全发生,但我觉得这是一个很深刻的见解。
亚当·格兰特:真有意思。我从来没想过机器会拥有自己的货币。
山姆·奥尔特曼:将来,人工智能可能会为你发明所有科学,治愈疾病,实现聚变,甚至完成我们现在无法想象的壮举。但你会更关心AI的成就,还是你朋友的成就,或者某个公司负责人的成就呢?我不知道,可能不会太多。
亚当·格兰特:不会。
山姆·奥尔特曼:或许有些人会更关注AI,甚至会出现一些围绕特定AI的奇怪崇拜。但我敢打赌,我们还是会更关注人与人之间的关系。
亚当·格兰特:我觉得是时候来个快速问答了。
山姆·奥尔特曼:我会像 GPT-4 那样尽可能快地给你答案,而不是和o1一样反复推理。
AI的快速起飞与适应建议
亚当·格兰特:第一个问题是,最近你在人工智能方面有没有重新思考过的事情,或者改变了对人工智能的看法?
山姆·奥尔特曼:我觉得人工智能快速起飞比几年前我认为的更有可能。
亚当·格兰特:有多快?
山姆·奥尔特曼:很难准确说清楚,但我感觉可能是在几年内,而不是十年那么久。
亚当·格兰特:你觉得人们在适应人工智能方面得到的最糟糕的建议是什么?
山姆·奥尔特曼:有人说“人工智能发展到头了”,这简直是世界上最懒惰的思维方式。这种说法就是想逃避思考,干脆把人工智能抛到脑后。
亚当·格兰特:那你最喜欢的关于如何适应人工智能的建议是什么?或者你会给出什么建议,帮助人们在人工智能的世界里成功立足?
山姆·奥尔特曼:这听起来可能有点傻,但最显而易见的建议就是——去使用这些工具。我觉得 OpenAI 做了一件很酷的事情:我们推出了目前世界上最强大的模型o1。只要你每月支付 20 美元,任何人都可以使用它。
如果你不想每月花 20 美元,你仍然可以使用一个非常不错的东西。它就像站在科技前沿、世界上最能干的人一样,你可以接触到完全相同的前沿技术。我觉得这太棒了。所以,去使用它,弄清楚你喜欢它什么,不喜欢什么,以及你认为它会发生什么变化。
亚当·格兰特:那你在人工智能领域最热门的观点,或者最不受欢迎的观点是什么?
山姆·奥尔特曼:我认为人工智能在短期内不会像人们想象的那样成为一件大事。长期来看,一切都会改变。我真心相信,我们可能会推出第一个通用人工智能,但人们并不会太在意。
亚当·格兰特:不过,科技界的人会关心,哲学家也会关心,这两类人是我听说的反应比较一致的群体。
山姆·奥尔特曼:即便如此,他们也只是暂时关心一下。但过了 20 分钟,他们又开始想那天晚上要吃什么晚饭了。
组织韧性与决策智慧
亚当·格兰特:你有什么问题想问我(作为组织心理学家)吗?
山姆·奥尔特曼:我想问一下,对于OpenAI来说,你在管理我们的集体心理方面有什么建议吗?因为我们正在经历这种疯狂的超级智能崛起阶段,用一个不太恰当的词来说,就是我们如何让这里的人保持理智呢?
我们还没有真正进入超级智能崛起的阶段,但我想,当我们进入这一阶段时,它肯定会是一个风险极高、压力巨大的过程。现在,我们正处于通用人工智能的加速阶段,就已经感觉有些压力山大了。所以,我觉得我们需要更强的组织韧性来应对接下来的挑战。
亚当·格兰特:说到组织韧性,你具体是怎么想的呢?是希望员工的压力不要那么大,还是希望他们能比自然情况下更快地适应变化?
山姆·奥尔特曼:我觉得组织韧性意味着在面对极高风险和不确定性时,我们能做出明智的决策,同时随着实际情况以及我们需要采取的行动快速变化,我们也能迅速适应。
亚当·格兰特:我觉得,解决这个问题的一个好方法是画一个2×2的矩阵,让OpenAI的每个人都思考他们每一个选择的重要性。
这些选择的利害关系有多高?每个选择的可逆性如何?他们是穿过一扇旋转门,还是会有一扇门在他们身后锁上?对于那些后果严重且不可逆的决策,我们一定要放慢速度,提前思考和再三斟酌,因为这些决策真的很重要,一旦做出就无法撤销。
山姆·奥尔特曼:有道理。
自我信念与专业领域
亚当·格兰特:你曾经写过一篇关于如何取得成功的博客。我之前读到你关于自信的那段话,觉得特别有意思,我来引用一下。你写道:“自信是极其强大的。我认识的最成功的人,几乎到了妄想的地步相信自己。尽早培养这种信念,因为你积累的证据越多,证明你的判断是正确的,你能够持续取得成果,就越要相信自己。”你仍然同意这个观点吗?
山姆·奥尔特曼:我同意。自信的力量真的很难夸大。当我们创办OpenAI时,正是外界对它最怀疑的时候,但我们自己却坚信不疑。我觉得在那个阶段,我最重要的贡献就是不断提醒大家:外部世界总是讨厌新事物,讨厌任何可能颠覆既定观念的东西。所以,尽管外界对我们说了很多疯狂的负面言论,但我们取得了惊人的进展。我知道还为时尚早,但我们需要暂停怀疑,相信它会继续发展。它已经在发展了,所以我们应该把它推向极致。现在看来,这一切似乎显而易见,但当时,我真心觉得,如果我们没有坚持下去,可能很久都不会取得这样的突破。因为当时只有我们有足够的自信去做一件看似荒谬的事情——那就是花十亿美元去扩大GPT模型的规模。所以,自信真的很重要。
亚当·格兰特:我觉得你说得没错,但这也挺可怕的。那些在自己专业领域之外,自信到了近乎妄想的人,往往会做出糟糕的决定。如果让我修改你写的内容,我会说:随着你在某个特定领域积累的证据越来越多,证明你的判断是正确的,那么你就可以在那个领域更相信自己。
山姆·奥尔特曼:你说得对,这才是更好的表述。我不认为经验和能力完全不能推广,但很多人确实过度推广了。我本应该提到“在你的专业领域”,但这里确实有微妙之处。因为我也觉得,人应该愿意尝试新事物。比如六七年前,我只是一个投资者,而不是AI实验室的高管。
亚当·格兰特:这也很重要,取决于你是在一个稳定还是动态的环境中。在稳定环境中,你可以基于直觉相信自己的判断,因为你潜意识里已经内化了过去仍然适用于未来的模式。而在更动荡的环境中,你的直觉往往是基于不适用的数据训练出来的。
山姆·奥尔特曼:在这种情况下,你应该更依赖那些你真正相信并且对你有效的核心原则,因为它们才是最宝贵的。
AI伦理与人类规则
亚当·格兰特:我想和你聊聊最后一个话题——伦理。我知道你一直在思考和讨论这个问题。毕竟,伦理是大多数人最不愿意交给人工智能来判断的领域。
山姆·奥尔特曼:我也是。
亚当·格兰特:我觉得归根结底,我们还是得依靠人类。我听到很多人用核威慑之类的比喻,比如“我们要领先于不良行为者,这样才能实现相互确保毁灭”。但问题是,这种军备竞赛的比喻并不适用,因为很多不良行为者并不是国家行为者,他们不会面临同样的风险和后果。而且,我们现在是要信任一家私营公司,而不是民选官员,这听起来太复杂了,也不符合逻辑。所以,说说你对这个问题的看法,以及你对伦理和安全问题的思考吧。
山姆·奥尔特曼:首先,人类必须制定规则,人工智能可以遵循这些规则,我们也要确保人工智能按照我们共同决定的规则行事。但规则必须由人类来制定。其次,我发现人们总是忍不住用历史类比来思考问题。我理解这一点,也不觉得这完全是坏事,但问题在于,历史上的例子和未来的情况并不相似。所以,我建议大家尽可能基于人工智能的独特性来展开讨论,而不是靠毫无根据的猜测。然后,再尝试设计一个适合这种独特性的系统。
我坚信,把人工智能当作一种提升个人能力的工具来使用,是一个很好的策略,也比让一家公司、对手或个人独占所有人工智能的力量要好得多。但我也很坦白地承认,我不清楚当人工智能变得更加自主时会发生什么。比如,不是让它们简单地编程三小时,而是让它们去完成一些通常需要一个组织花费多年才能完成的复杂任务。我怀疑到那时,我们可能需要重新寻找新的模式。历史经验在这方面可能帮不上什么忙。
亚当·格兰特:其实,在软件领域,历史经验也并没有发挥太大作用。我认为,美国对其他强大技术都进行了监管,而欧盟在监管方面可能比美国国会更有效一些。
山姆·奥尔特曼:我觉得欧盟对人工智能的监管方式并不起作用,原因还在于其他方面。比如,当我们完成一个新模型时,即使它并不强大,我们也可以在美国轻松推出,但在欧盟推出之前,却要经过一系列复杂的监管程序。这样一来,欧盟是不是总是会比技术前沿落后几个月?我认为,这会导致他们在该领域失去建立强大经济引擎和深入理解的机会。正确把握监管的平衡真的很难,但在我看来,我们显然需要一些监管。
技术民主化与未来担忧
亚当·格兰特:当你展望未来十年左右,你最担心的是什么?
山姆·奥尔特曼:我认为是变化的速度。我真心相信人类有解决问题的精神,但我们确实需要在很短的时间内解决很多问题。
亚当·格兰特:当我思考伦理和未来影响时,另一个让我困惑的问题是,我以为很多数字技术会更加普及化,我们认为它们会减少甚至消除不平等。
但很多时候情况恰恰相反,富人变得更富了,因为他们更容易获得这些工具。你提到,O1在美国的标准下已经相当便宜了,但我认为仍然存在获取上的差距。要改变这种情况需要什么?人工智能如何才能在发展中国家成为一股向善的力量?
山姆·奥尔特曼:我们已经能够将智能单位的成本每年降低大约10倍。我们不能一直这样下去。但我们已经这样做了很久,我认为智能变得如此便宜是令人惊叹的。
亚当·格兰特:我想在某些方面,这反而加剧了问题,至少目前来看,能够负担得起制造真正强大模型的只有政府和大型公司,它们是有责任的。
山姆·奥尔特曼:目前来说,是的。
亚当·格兰特:但使用它就完全不同了。所以当你回顾过去,我是说三年来,这一定像是经历了一生的变化。
山姆·奥尔特曼:这很奇怪。
亚当·格兰特:你为什么要做这个?我想这是一种说法。
山姆·奥尔特曼:我是一个技术乐观主义者和科学爱好者,我认为这是我能想象到的最酷的事情,也是我能想象到的最好的工作方式,能够参与我认为是我们一生中最具吸引力、最酷、最重要的科学革命。这真是太荣幸了。难以置信。然后从非自私的角度来说,我有一种对科学进步的责任感。这是社会进步的一种方式,在我力所能及的范围内,或者在所有事情中,我相信这是最能推动科学进步,从而推动生活水平、人类体验的质量,不管你叫它什么,向前发展的东西。
我有一种责任感,但这不是消极意义上的责任,而是一种充满感激的责任,因为我能够以某种方式做出贡献。
亚当·格兰特:听起来像是责任。
山姆·奥尔特曼:当然。
对下一代的期望与技术乐观主义
亚当·格兰特:随着孩子的到来,作为一名准爸爸,你希望下一代生活在一个怎样的世界里呢?
山姆·奥尔特曼:第一个想到的词是“充裕”,第二个是“繁荣”。但总的来说,我期望的是一个人们能做更多事情的世界——比如,能过得更充实,生活得更好。无论我们怎么定义这些,所有这些愿望都包含在内。这可能也是所有准爸爸们为孩子所期待的。
我从未像现在这样对某件事如此兴奋。我觉得,没有人应该在不想有孩子的情况下要孩子。虽然我不想用“责任”这个词,但社会确实依赖于有些人愿意生育后代。
亚当·格兰特:至少目前是这样。我想我没有听到过你像今天这样强烈地表达过,你不仅相信技术,也相信人类。在某种程度上,这是一个冒险的立场,我们从社交媒体上就看到了这一点,但我觉得,当涉及到构建技术时,这也是一个基本要求,你必须保持乐观并坚信——
山姆·奥尔特曼:我倾向于乐观,并且尽量保持客观。但如果对技术过于乐观,那还好,但如果对人类过于乐观,如果我们推出这些工具,人们会更多地用它做好事而不是坏事,但我们对人性的判断完全错了,那对我们来说可能是一个危机。这将成为我们的战略失误,但我并不相信会这样。
(文:AI科技大本营)