AI时代,“提问能力”比“智力”更重要

大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普AI工具测评AI效率提升AI行业洞察。关注我,AI之路不迷路,2025我们继续出发。

这是由 Adam Grant (亚当·格兰特)OpenAI CEO Sam Altman (山姆·奥特曼) 的一次主题为“ Sam Altman on the future of AI and humanity” (山姆·奥特曼谈 AI 与人类的未来) ,时长为 40 min 的访谈。

AI 的光与影

1. 现状与未来:不过度焦虑,积极适应

  • 短期影响有限,长期变革深远:  理性看待 AI 的发展。尽管如 o1 等 AI 模型已展现出超越人类的智能,但它们对我们日常生活的直接影响仍然有限。短期内,我们不必过度焦虑。然而,从长远来看,AI 将像工业革命一样,深刻地变革社会和经济结构,我们需为此做好准备,积极适应与 AI 深度融合的未来。

  • 未来能力的新定义:  在 AI 时代,”提出问题的能力“、”连接观点的能力” 以及 “敏捷学习的能力” 将变得比单纯的 “知识储存” 更加重要。


2. 人类价值:情感、协作与乐观精神

  • 反思“身为人类”的意义: 当 AI 能够胜任越来越多的工作,不禁要思考:应如何定义自身的价值和独特性?这将是一个持续探索的过程。

  • 情感与社交:人类的独特优势:  AI 无法替代人类的情感连接社会归属感对地位的追求。我们渴望被爱、被认可,这些深层次的情感需求将继续驱动我们的行为,成为独特的优势。

  • 与 AI 协作:  不要将 AI 视为威胁,而应将其视为合作伙伴。通过与 AI 协作,我们将以新的方式参与解决问题,并从中获得成就感和意义。

  • 乐观精神:人类的强大适应力:  回顾历史,人类已经成功适应了多次技术革命,这次也不会例外。


3. 机遇与挑战:理性看待,积极应对

  • AI 助力:科研突破与认知提升:  AI 将成为诸多领域的强大助手,帮助我们解决更多难题,创造更多价值。比如,AI 可以协助科学家加速新药研发,也可以帮助人们识别和纠正错误认知。

  • 潜在的风险:幻觉、依赖与公平:  我们需要理性看待 AI 的局限性,警惕其产生“幻觉”信息的风险,避免过度依赖 AI 导致自身能力退化

Sam Altman 访谈全文

山姆·奥特曼谈 AI 与人类的未来

ReThinking with Adam Grant  | 与亚当·格兰特一起重新思考

2025 年 1 月 7 日


[00:00:00] 山姆·奥特曼: 自从 ChatGPT 发布以来,OpenAI 走上了一条新的发展轨迹,其中一个让我感到惊讶的地方是,到下午一点钟,有多少事情可能会出错。

[00:00:12] 亚当·格兰特: 大家好,我是亚当·格兰特。欢迎回到“重新思考”,这是我在 TED 音频团体中关于“是什么让我们行动起来”的科学播客。

我是一名组织心理学家,我将带你走进那些迷人的人们的大脑,探索新的思想和新的思维方式。我今天的嘉宾是 OpenAI 的首席执行官兼联合创始人山姆·奥特曼。自从山姆和他的同事们第一次构思出 ChatGPT 以来,很多事情都发生了变化。

[00:00:37] 山姆·奥特曼: 你我正经历着人类历史上唯一一次的转变,人类从地球上最聪明的东西变成了不是地球上最聪明的东西。

[00:00:49] 亚当·格兰特: 人工智能的指数级进步让我重新思考了我对“什么是人类独有”的许多假设,并提出了远多于答案的问题。由于源代码是一个黑匣子,我认为是时候去拜访一下源头本身了。在几次活动中与山姆有过交集,我很欣赏他愿意大声说出自己的想法,而不是仅仅坚持照本宣科,即使他的观点不受欢迎。

[00:01:11] 山姆·奥特曼: 我怀疑在几年后,几乎在任何话题上,你都可以与人工智能进行最有趣、甚至可能是最富有同情心的对话。

[00:01:25] 亚当·格兰特: 山姆·奥特曼自己做技术检查。这是怎么发生的?

[00:01:29] 山姆·奥特曼: 嗯,你知道,我不知道。没关系。

[00:01:31] 亚当·格兰特: 这里没有处理程序(这里指没有公关人员)。有时我必须从过去一年中许多对话开始的地方开始,那就是被自己的公司解雇是什么感觉?

[00:01:40] 山姆·奥特曼: 这就像一种超现实的迷雾。困惑是我最初的主要情绪。然后就像,我经历了一切,但困惑是第一个。

[00:01:50] 亚当·格兰特: 然后呢?

[00:01:50] 山姆·奥特曼: 然后是沮丧、愤怒、悲伤、感激,我的意思是,什么都有。

[00:01:56] 亚当·格兰特: 哇。

[00:01:57] 山姆·奥特曼: 那 48 小时就像是人类情感的全方位体验。令人印象深刻的是它的广度。

[00:02:02] 亚当·格兰特: 在那 48 小时里,你是如何处理这些情绪的?

[00:02:05] 山姆·奥特曼: 老实说,有太多事情要做,只是战术上,以至于没有太多时间来处理任何情绪。所以在那些 48 小时里,没做什么。然后,当尘埃落定时,情况变得很困难,我不得不在所有这一切中重新开始工作。

[00:02:20] 亚当·格兰特: 我记得史蒂夫·乔布斯在被赶出苹果多年后说,“这是一剂难以下咽的良药,但我想病人需要它。” 这在某种程度上可以理解吗?还是这种情况太不同了?

[00:02:32] 山姆·奥特曼: 也许时间还不够长。我最近没有深入反思过这件事。我认为它在所有这些方面都与史蒂夫·乔布斯的案例截然不同,而且它也太短了。

整件事就像五天内就结束了。这就像一个非常奇怪的发烧梦,然后就像回去工作收拾残局一样。

[00:02:48] 亚当·格兰特: 我想五天和十年相比,学习曲线略有不同,对吧?

你学到了什么?

[00:02:54] 山姆·奥特曼: 实际上,也许我错了。也许只有四天。

我想是四天。我学到了一堆东西,下次我会以不同的方式去做,关于我们在那个过程期间和之后如何沟通,以及需要直截了当地说明正在发生的事情。我认为长期以来,人们对 OpenAI 存在着一种怀疑的阴云,我们可以做得更好。

我知道我和优秀的人一起工作,但在危机中、在压力大的情况下、在不确定性中看到团队有多优秀。对我来说,最自豪的时刻之一是看着执行团队在我不在的情况下运作了一段时间,并且知道他们中的任何一个都完全有能力运营公司。

我对选择这些人感到非常自豪,对我在一定程度上教导他们感到自豪,对公司处于一个非常强大的地位感到自豪。

[00:03:37] 亚当·格兰特: 听到你这么说我很惊讶,我以为你最自豪的时刻应该是大量员工站在你身后。

作为一名组织心理学家,我认为看到内部人员倾注忠诚和支持令人震惊。

[00:03:49] 山姆·奥特曼: 感觉确实不错,但这并不是让人印象深刻的事情。我记得我为团队感到非常自豪,但不是因为那个原因。

[00:03:55] 亚当·格兰特: 好吧,我想那也是非常“乔布斯”式的。当他被问及他最自豪的成就是什么时,不是 Mac、iPod 或 iPad,而是构建这些产品的团队

[00:04:05] 山姆·奥特曼: 我不做研究。我不制造产品。我做一些决定,但不是大多数。我能够建立的是公司,所以这当然是我引以为豪的事情。

[00:04:15] 亚当·格兰特: 那么你实际上在做什么?你是如何支配你的时间的?

[00:04:19] 山姆·奥特曼: 这是一个很好的问题。在任何一天,情况都大不相同,而且相当混乱。不知何故,清晨从来没有那么混乱,但到了下午,情况通常会变得混乱起来,各种各样的事情都在发生,你有点处于反应模式和“救火”模式。所以我学会了在一天中尽早完成真正重要的事情。我把大部分时间都花在思考研究和我们构建的产品上,然后在其他所有事情上花费的时间较少。但在任何特定时间,情况都可能非常不同。

[00:04:46] 亚当·格兰特: 所以,过去几年里,我一直非常好奇的一件事是,看着你把世界搅得天翻地覆,就像,人类会发生什么?

我一直在追踪我认为迄今为止完成的最有趣的研究,而人类的落后速度比我预想的要快得多。所以我认为我们在创造力、同理心、判断力和说服力方面都已经落后了,我想了解你对其中每个领域的一些数据点的反应。

但首先,就像你对整体的评论一样。人工智能如此迅速地超越了许多人类能力,你对此感到惊讶吗?

[00:05:21] 山姆·奥特曼: 我们最新的模型在几乎所有方面都比我聪明,而且它并没有真正影响我的生活。

[00:05:27] 亚当·格兰特: 真的吗?

[00:05:27] 山姆·奥特曼: 我仍然关心与以前相同的事情。我可以更有效地工作。

我假设随着社会消化这项新技术,社会将发展得更快。当然,我希望科学进步会发展得更快。我们正在与这个惊人的新的人工制品、工具或你想怎么称呼它共存,但你现在的生活与几年前相比有什么不同?

有点没什么不同?我认为从长远来看,人工智能确实改变了一切。但我想我十年前天真地认为,当我们拥有一个与我们现在最强大的模型一样强大的模型的那一天,一切都会改变,现在我认为那是一个天真的看法。

[00:06:05] 亚当·格兰特: 我认为这是标准。就像我们在短期内高估了变化,而在长期内低估了变化。

[00:06:11] 山姆·奥特曼: 对,没错。

[00:06:12] 亚当·格兰特: 所以你正在经历其中的一个版本。

[00:06:13] 山姆·奥特曼: 最终,我认为整个经济都会转型。我们会找到新的事情去做。我对此毫不担心。我们总是会找到新的工作,尽管每次我们盯着一项新技术时,我们都认为它们都会消失。

确实有些工作会消失,但我们会找到很多新的事情去做,希望是很多更好的事情去做。我认为将会发生的是,这只是技术进步长期展开的指数曲线中的下一步。

[00:06:37] 亚当·格兰特: 我认为在某些方面,人工智能革命在我看来与互联网革命相反。因为那时人们经营公司,他们不相信互联网会改变世界,他们的公司死了,因为他们没有做出必要的改变。但那些买账的人,行动的意义非常明确。就像,我需要一个正常运行的网站。我需要知道如何通过该网站销售我的产品。

对吧?适应数字革命并不是火箭科学。我现在从许多创始人和首席执行官那里听到的是相反的。每个人都相信人工智能正在改变游戏规则,但没有人知道这对领导力、工作、组织、产品和服务意味着什么。他们都蒙在鼓里。

[00:07:16] 山姆·奥特曼: 从这个意义上说,它更像工业革命,而不是互联网革命。关于这将如何发展,存在着巨大的已知未知数,但我认为我们可以说很多事情。关于它将如何发展。

[00:07:27] 亚当·格兰特: 我想听听这些事情。我有几个假设。一个是我们将停止重视能力,而开始重视人类的敏捷性。

[00:07:36] 山姆·奥特曼: 我们将仍然非常重视一种能力,但它不会是同等程度的原始智力(这里指单纯的计算能力)。

[00:07:42] 亚当·格兰特: 你认为重要的新能力是什么?

[00:07:44] 山姆·奥特曼: 我的意思是,这种粗浅的版本是“弄清楚要问什么问题”将比“弄清楚答案”更重要

[00:07:51] 亚当·格兰特: 这与我甚至在过去几年里看到的情况是一致的,那就是我们过去常常重视你在大脑中收集了多少知识,如果你是一个“事实收集者”,那会让你变得聪明和受人尊敬。现在我认为,成为“点的连接者”比成为“事实的收集者”更有价值,如果你能综合和识别模式,你就具有优势。

[00:08:12] 山姆·奥特曼: 如果你看过那部电视剧《太空堡垒卡拉狄加》,他们在剧中反复说的一件事是,“所有这些都发生过,所有这些都将再次发生。” 当人们谈论人工智能革命时,它确实让我在一些非常重要的定性方面感觉不同,但它也让我想起了以前的技术恐慌。当我还是个孩子的时候,这东西出来了。在互联网上发布的新东西。我认为它很酷。其他人认为它很酷。它显然比之前的东西好得多。我还不够大,还不能直接发生在我身上,但大一点的孩子告诉我这件事。

老师们开始禁止使用谷歌,因为——

[00:08:47] 亚当·格兰特: 他们称它为谷歌吗?

[00:08:49] 山姆·奥特曼: 谷歌。如果你可以查阅每一个事实,那么去上历史课和背诵事实的目的是什么?我们将失去一些关于我们如何教育孩子以及成为社会负责任成员意味着什么的关键内容。

如果你可以立即查阅任何事实,你甚至不必启动内燃机,开车去图书馆,查看卡片目录,找一本书。它就在那里。这感觉不公平,感觉不对。感觉我们会失去一些东西。我们不会那样做。对于所有这些,发生的事情就像我们获得了更好的工具,期望值上升了。

所以一个人的能力也提高了,我们只是学会了如何做更困难、更有影响力、更有趣的事情。我希望人工智能也能如此。如果你几年前问某人,A,2024 年是否会有一个与 o1 一样强大的系统?B,如果一个预言家告诉你你错了,它会,世界会发生多大变化?

你的日常生活会发生多大变化?我们如何面对生存风险或其他什么?你问的几乎每个人都会说,“第一个肯定不会,但如果我错了,它发生了,就像我们在第二个问题上相当糟糕一样。” 然而,这件了不起的事情发生了,我们在这里。

[00:10:00] 亚当·格兰特: 在创新领域,艾登·托纳·罗杰斯发表了一篇新论文,该论文展示了研发科学家的一些好消息,当他们获得人工智能辅助时,他们提交的专利数量增加了 39%,这导致产品创新增加了 17%。

其中很多都是在激进的突破中,发现了新的化学结构。主要的收益是针对顶级科学家,而不是底层科学家。如果你是三分之一的底层科学家,几乎没有什么好处,但顶尖科学家的生产力几乎翻了一番,这种翻倍似乎是因为人工智能自动化了许多创意生成任务,它使科学家能够将精力集中在创意评估上,伟大的科学家非常擅长识别有前途的创意,而糟糕的科学家容易出现误报。

所以这都是好消息,对吧?难以置信地释放了科学创造力。但这是有代价的,在研究中,82% 的科学家对他们的工作不太满意。他们觉得自己做的创造性工作更少,他们的技能没有得到充分利用,似乎在这种情况下,人类正在沦为评委,而不是创造者或发明家。

我很想知道你是如何看待这一证据的,以及我们对此做了些什么?

[00:11:10] 山姆·奥特曼: 我这里有两个相互矛盾的想法。在 OpenAI 发生的对我个人来说最令人满意的事情之一是,当我们发布这些新的推理模型时,我们将它们提供给伟大的、传奇的科学家、数学家、程序员,随便什么人,并询问他们的想法,听听他们的故事,了解这是如何改变他们的工作以及他们可以以新的方式工作。

我当然从必须通过创造性地推理问题并找出没有人想出的答案中获得了最大的职业乐趣。当我想到人工智能接管它时,如果它以这种方式发生,我确实感到有些悲伤。我期望现实中发生的是,我们将以一种新的方式来解决难题。

积极参与解决最棘手的问题会带来快乐。 如果我们使用以不同方式增强我们的新工具来做到这一点,我有点认为我们会适应,但我不确定。

[00:12:05] 亚当·格兰特: 在你的工作中,这看起来像什么?例如,你如何使用 ChatGPT 来解决你在工作中遇到的问题?

[00:12:12] 山姆·奥特曼: 老实说,我以无聊的方式使用它,我用它来帮助我处理所有这些电子邮件,或者帮我总结这份文件,或者只是非常无聊的事情。

[00:12:20] 亚当·格兰特: 听起来你希望我们能够以让我们仍然能够参与创作过程的方式进行调整。

[00:12:27] 山姆·奥特曼: 我希望如此,这是如此深刻的人类精神,我认为无论如何,这一切都会继续,但它必须进化,并且会有些不同。

[00:12:34] 亚当·格兰特: 我原本以为人类会在同理心方面拥有更长时间的优势,但我们坚持的时间比我们目前为止坚持的时间要短。到目前为止,我读过的我最喜欢的实验基本上表明,如果你正在进行文本对话,并且你不知道它是人还是 ChatGPT,然后在事后你被问到,“你感觉自己被看到了多少?你感觉自己被听到了多少?你得到了多少同理心和支持?” 你感觉你从人工智能那里得到的同理心和支持比你从人类那里得到的要多,除非我们告诉你那是人工智能,然后你就不再喜欢它了。

[00:13:03] 山姆·奥特曼: 对。

[00:13:03] 亚当·格兰特: 作为一名心理学家,我看到这些证据,我有几个反应。一个是,我认为不是人工智能在同理心方面那么好。

而是我们作为人类的默认设置非常糟糕和差劲,对吧?我们太快地陷入了“对话自恋”,有人告诉我们一个问题,我们开始将它与我们自己的问题联系起来,而不是为他们出现(这里指倾听他们的需求)。所以我想也许这只是对人类同理心基线较差的一种控诉,但我也想知道这会持续多久。

就像,“如果我知道它是人工智能,我就不想要它了”将会持续下去,因为我们开始将这项技术人性化和拟人化越来越多。

[00:13:36] 山姆·奥特曼: 让我首先谈谈人们有时更喜欢某些东西的实际输出,如果是人工智能,直到他们被告知它是人工智能,然后他们不喜欢它,你会一遍又一遍地看到这种情况的一般概念。

我最近看到一项研究,即使在那些声称他们真的最讨厌人工智能艺术的人中,在你选择的这个喜好尺度上,他们仍然为他们最喜欢的人工智能艺术作品选择了更多输出,直到他们被告知哪个是人工智能,哪个不是。当然,情况就不同了。

我们可以选择许多其他例子。但我认为人工智能在许多方面已经赶上了我们的趋势,而我们却根深蒂固地关心人类而不是人工智能,这是一个非常好的迹象。我们都在猜测,所以我会说我对所有这些都有很高的不确定性,但尽管你可能会更多地与人工智能交谈,而不是你今天所做的,你仍然会非常关心当你与一个人交谈时,这是我们生物学、进化史和社交功能中非常深刻的东西,无论你想怎么称呼它。

[00:14:38] 亚当·格兰特: 你为什么认为我们仍然需要人际关系?这听起来像是罗伯特·诺齐克导致“矩阵”(这里指电影《黑客帝国》)的论点的一个版本,人们更喜欢真实的体验而不是模拟的快乐。你认为这就是我们渴望的吗?我们只是想要真正的人际关系,即使它有缺陷和混乱?当然,人工智能也会学会模拟这一点。

[00:14:56] 山姆·奥特曼: 我认为你会很快发现,一直与一个完美无缺、完全有同情心的东西交谈,你会错过戏剧性或紧张感,或者我,我,那里会有一些东西。我认为我们只是如此热衷于关心其他人的想法、感受、他们如何看待我们。我不认为这会转化为人工智能。

我认为你可以与人工智能进行一次有帮助的对话,让你感到被认可,这是一种很好的娱乐方式,就像玩电子游戏是一种很好的娱乐方式一样。但我不认为它满足了成为群体和社会一部分的社交需求,这种需求会让我们感到满意。

现在,我可能对此有误,也许人工智能可以如此完美地破解我们的心理,以至于它确实做到了,如果是这样的话,我会非常难过。

[00:15:39] 亚当·格兰特: 是的,我也是。你是对的。人工智能很难替代归属感。也很难从机器人那里获得地位,对吧,以我们依赖其他人的眼睛和耳朵的方式感到重要或酷或受人尊敬。

[00:15:53] 山姆·奥特曼: 这就是我想说的。我可以想象一个很快就会到来的世界,人工智能的能力将比我们强得多,并且正在做这些了不起的事情。当我想到那个世界,想到其中的人时,我想象那些人仍然非常关心其他人,仍然非常关心相对地位,以及相对于其他人的这些愚蠢游戏。但我不认为很多人会根据人工智能正在做的事情和能力来衡量自己。

[00:16:19] 亚当·格兰特: 所以我一直非常好奇的一件事是,在一个信息越来越有争议、事实越来越难以说服人们的世界里,例如,我们在关于阴谋论信念的数据中看到了这一点,比如人们相信阴谋,因为它让他们感到特别和重要,就像他们可以获得其他人无法获得的知识一样。

当然,这不是唯一的原因,但它是驱动原因之一。这意味着另一个人真的很难说服他们放弃这些信念,因为他们有点承认自己错了,我被最近的一篇论文迷住了。这是科斯特洛、彭尼库克和兰德的论文。他们表明,如果你与人工智能聊天机器人进行一次对话,即使几个月后,它基本上也可以让人们放弃他们的一些阴谋论。

它首先基本上只是针对。你相信的一个错误主张。

[00:17:09] 山姆·奥特曼: 是的。

[00:17:09] 亚当·格兰特: 并揭穿它。我认为它的部分原因是它对你坚持自己信念的具体原因做出了回应。部分原因是,没有人会在意在机器面前看起来像个白痴,就像他们在人类面前一样。我认为大约有 20% 的人不仅放弃了他们荒谬的阴谋论,而且他们还放弃了人工智能甚至没有针对的其他一些信念。因此,我认为这扇门的打开非常令人兴奋。显然,这可以用于邪恶和善良,但我真的很想听听你对我们用这些工具纠正人们的误解的新机会的看法。

[00:17:47] 山姆·奥特曼: 是的,世界上有些人可以做到这一点,可以在某种程度上扩展我们的思维。这非常强大。只是他们的人数不多,能和他们交谈是一种难得的特权。如果我们能制造出一个像“世界上最好的晚宴客人”一样的人工智能,超级有趣,对一切都了如指掌,对你非常感兴趣,并花时间去了解他们可以在哪个方面推动你的思维向新的方向发展,在我看来,这似乎是一件好事,而且我在人工智能方面也有过这样的经历,我与重要领域的真正专家交谈过,这改变了我对世界的看法,当然有一些人可以做到这一点,但我当时没有和他们在一起。

[00:18:27] 亚当·格兰特: 然后它也明显引发了很多关于幻觉问题和准确性的问题。作为局外人,我真的很难理解为什么这是一个如此棘手的问题。你能用一种非计算机科学家能够理解的方式向我解释一下吗?

[00:18:41] 山姆·奥特曼: 是的。我认为很多人仍然停留在 GPT-3 时代,那是 2021 年的远古历史,当时这些东西都没有真正发挥作用。

它确实产生了很多幻觉。如果你使用当前的 ChatGPT,它仍然会产生一些幻觉,但我认为令人惊讶的是,它通常非常稳健。我们训练这些模型根据它们之前看到的所有单词进行预测。训练集中有很多错误的信息。

有时,模型也无法像它应该的那样进行泛化,教模型何时应该自信地表达它不知道,你知道,就像做出猜测一样,这仍然是一个研究领域,但它正在变得越来越好。使用我们新的推理模型,这方面也有了很大的进步。

[00:19:23] 亚当·格兰特: 我在各种迭代中提示过 ChatGPT,“就像,这是真的吗?你能确保这是一个准确的答案吗?” 这应该作为——你知道的——迭代过程中必需的步骤内置。那么这就是我们的发展方向吗?然后这成为过程的自动组成部分。

[00:19:37] 山姆·奥特曼: 我认为这将成为过程的一部分。

我认为还会有很多其他的事情让它变得更好,但那将是过程的一部分。

[00:19:43] 亚当·格兰特: 有一些全新的研究,在过去一两年里有很多这样的研究,但在上周让我大吃一惊的一项研究是,当你将单独的人工智能与单独的医生进行比较时,人工智能当然会获胜,但人工智能也会击败“医生和人工智能”团队。

我对这些证据的解读是,医生并没有从人工智能辅助中受益,因为他们在不同意时会推翻人工智能的意见。

[00:20:11] 山姆·奥特曼: 你会在历史上看到这种情况的不同版本,就像当人工智能开始下棋时。有一段时间人类更强。然后有一段时间人工智能更强,然后有一段时间,我不记得有多久了,人工智能加人类一起工作比单独的人工智能更强,因为他们可以带来不同的视角。

然后有一段时间,人工智能再次比人工智能加人类更强,因为人类正在推翻并犯错,因为他们只是没有看到一些东西。如果你认为你的角色是在所有情况下都试图推翻人工智能,那么事实证明它不起作用。另一方面,第二件事,我认为我们还处于弄清楚人类和人工智能应该如何合作的早期阶段。

人工智能将成为比人类医生更好的诊断师,这可能不是你想与之抗衡的。但人类会更好地做很多其他事情,或者至少人们,病人希望一个人去做。我认为这将非常重要。我一直在思考这个问题。

我很快就要有孩子了。我的孩子永远不会比人工智能更聪明。你知道,即将出生的孩子,他们唯一知道的世界将是一个有人工智能的世界。这将是自然的。当然它比我们聪明。当然它可以做我们做不到的事情,但谁真的在乎呢?

我认为这只是我们在这个过渡时期的怪事。

[00:21:21] 亚当·格兰特: 在某些方面,这是一种谦逊的力量。我认为这是一件好事。另一方面,我们还不知道如何使用这些工具,对吧?也许有些人对它们的依赖性有点太快了。

[00:21:31] 山姆·奥特曼: 你知道,我不能再拼写复杂的单词了,因为我只是相信自动更正会拯救我。

我对此感觉良好。很容易对这些事情产生道德恐慌,即使人们更依赖他们的人工智能来帮助他们表达思想,也许这就是未来的方式。

[00:21:45] 亚当·格兰特: 我见过一些学生不想在没有 ChatGPT 的情况下写论文,因为他们已经不习惯起草任务了,他们习惯于外包很多工作,然后有原材料可以使用,而不是必须在空白页或闪烁的光标前生成一些东西。

而且,我认为确实存在一些依赖性正在建立。你对如何防止这种情况有什么想法吗?还是这就是未来,我们应该习惯它?

[00:22:10] 山姆·奥特曼: 我不确定这是我们应该防止的事情。对我来说,写作是外包思维,非常重要,但只要人们用一种新的写作方式取代一种更好的思维方式,这似乎在方向上是好的。

变得更出名的一件可悲的事情是,如果我没有把一切都说得完美,对我或 OpenAI 来说几乎没有任何好处,我只是招致了大量的攻击或其他什么,这很令人沮丧。

[00:22:34] 亚当·格兰特: 我认为这是你失去的能力,只是即兴发挥和公开玩弄想法,并且部分错误或有不完整的想法。

[00:22:44] 山姆·奥特曼: 大部分是错误的。大部分是错误的,其中有一些“珍宝”。

[00:22:46] 亚当·格兰特: 我的意思是,话虽如此,就像我们中的一些人很感激你比你的一些同龄人更加谨慎,他们不进行任何自我反省或自我控制。

[00:22:55] 山姆·奥特曼: 嗯,那是另一回事。就像只是做一个有思想、有点谨慎的人,是的,我认为更多的人应该这样做。

我认为真正愚蠢的事情,一个相当常见的工作流程是,有人会写下他们想对别人说的要点,让 ChatGPT 把它写成一个漂亮的多段电子邮件,把它发送给别人。然后那个人会将那封电子邮件放入 ChatGPT 并说,“告诉我三个关键要点是什么。”

所以我认为有一些写作和沟通或其他方面的残留形式,可能仍然没有太大的价值,我可以接受一个社会规范进化的世界,每个人都可以互相发送要点。

[00:23:35] 亚当·格兰特: 我真的想要一个水印或至少一些内部记忆,ChatGPT 可以说回来,“嘿,就像这已经由我生成了,你应该回去告诉这个人你想要要点,以便你们将来可以更清楚地沟通。” 部分原因是什么,很多人对这些工具的适应速度很慢。我们看到了一些非常有趣的人类智慧,所以对我来说,证据是一个由莎伦·帕克和她的同事们进行的研究。嗯,这是在机器人技术领域。所以他们进入了一家基本上开始用机器人取代人类的制造公司。许多员工没有因为人们不再有工作而感到恐慌,而是说,“好吧,我们需要做出独特的贡献。我们需要在工作中找到意义。” 他们通过智胜机器人来做到这一点,比如他们研究机器人,他们找出机器人不擅长的地方,然后他们说,“好吧,我们要把这作为我们的核心竞争力。”

现在,我认为 o1 和推理方面的进步的可怕之处在于,我们去年认为会区分我们的许多技能现在已经过时了,对吧?许多人在 2023 年使用的提示技巧不再相关,其中一些将永远不再需要。那么,人类在 50 年、100 年或 1000 年后会做什么呢?

[00:24:47] 山姆·奥特曼: 没有人知道,但我认为更有趣的答案是,今天人类有什么用?我会说对其他人有用,我认为这种情况会继续存在。有人对我说过,这是很多年前的保罗·布赫,这真的让我印象深刻,因为他一直在思考,思考,再思考。这是在 OpenAI 成立之前,他认为总有一天会有人类货币和机器货币,它们将是完全独立的货币,一个不关心另一个。

我不指望这会真的发生,但我认为这是一个非常深刻的见解。

[00:25:18] 亚当·格兰特: 令人着迷。我从来没有想过机器会有自己的货币。

[00:25:23] 山姆·奥特曼: 你会很高兴人工智能为你发明了所有科学,治愈了疾病,你知道,使聚变发挥作用,以及我们无法想象的不可能的胜利。但你会关心人工智能做什么,而不是你的某个朋友或某个经营公司的某个人做什么吗?我不知道。可能没有那么多。

[00:25:43] 亚当·格兰特: 不。

[00:25:43] 山姆·奥特曼: 就像也许有些人会,也许有一些非常奇怪的邪教围绕着特定的人工智能,我敢打赌我们会惊讶于我们仍然非常关注人的程度。

[00:25:55] 亚当·格兰特: 好的。我想可能是时候进行闪电回合了。

[00:25:58] 山姆·奥特曼: 这是我在 GPT 4 模式下而不是 o1 模式下,我只需要像你知道的那样尽快地进行一次。我会放置下一个标记。

[00:26:04] 亚当·格兰特: 第一个问题是,你最近在人工智能方面重新思考或改变了什么想法?

[00:26:09] 山姆·奥特曼: 我认为快速起飞比我几年前想象的更有可能

[00:26:13] 亚当·格兰特: 多快?

[00:26:14] 山姆·奥特曼: 感觉很难推理,但有些东西是在几年内而不是十年内

[00:26:18] 亚当·格兰特: 哇。你认为人们在适应人工智能方面得到的最糟糕的建议是什么?

[00:26:22] 山姆·奥特曼: “人工智能正在撞墙”,我认为这是最懒惰的方式,试图不去想它,只是你知道,把它放在看不见的地方,不去想它。

[00:26:29] 亚当·格兰特: 关于如何在人工智能世界中适应和成功,你最喜欢的建议是什么,或者你会给出什么建议?

[00:26:35] 山姆·奥特曼: 这太愚蠢了,但显而易见的事情是,就像,只是使用这些工具。我认为 OpenAI 做的一件非常酷的事情是,我们推出了我们所知的当今世界上最强大的模型,o1,如果你每个月支付我们 20 美元,任何人都可以使用它。

如果你不想每个月支付我们 20 美元,你仍然可以使用一个非常好的东西。它在那里就像前沿,世界上最有能力的人,你可以访问完全相同的前沿,我认为这很棒。所以去使用它,弄清楚你喜欢它什么,你不喜欢什么,你认为它会发生什么。

[00:27:03] 亚当·格兰特: 关于人工智能,你最热门的话题或不受欢迎的观点是什么?

[00:27:06] 山姆·奥特曼: 至少在短期内,它不会像人们想象的那么重要从长远来看,一切都会改变。我真的相信我们可以启动第一个 AGI,没有人会在意那么多。

[00:27:17] 亚当·格兰特: 科技界人士和哲学家在意,这是我一直听到的两个群体,他们始终如一地做出反应。

[00:27:23] 山姆·奥特曼: 即使他们在意。但就像。20 分钟后,他们在想他们那天晚上要吃什么。

[00:27:28] 亚当·格兰特: 作为一名组织心理学家,你有什么问题要问我?

[00:27:30] 山姆·奥特曼: 哦。关于我们如何管理我们的集体心理,你对 OpenAI 有什么建议,因为我们正在经历这种疯狂的超级智能起飞,就像我们如何让这里的人保持理智,因为没有更好的词?

我们还没有真正进入起飞的超级智能部分,但我想象当我们经历这些时,它会感觉像一个令人难以置信的高风险、压力极大的事情。我的意思是,即使现在我们处于 AGI 爬坡阶段,它也有点像那样。我认为我们需要更多的组织弹性来应对即将发生的事情。

[00:27:57] 亚当·格兰特: 当你想到组织弹性时,那是什么样子的?这是否意味着人们不像他们可能会变得那样紧张?这是否意味着他们能够比他们自然情况下更快地适应变化?

[00:28:09] 山姆·奥特曼: 在令人难以置信的高风险、不确定性的情况下做出正确的决定,以及随着事实和我们需要考虑或采取的行动以非常快的速度变化而适应性。

[00:28:24] 亚当·格兰特: 我认为对我来说,开始的地方是画一个二乘二的表格,让 OpenAI 的每个人思考他们做出的每一个选择有多重要。

那些赌注有多高?然后每一个选择的可逆性如何?他们是走过一扇旋转门还是会在他们身后锁上?我认为你真的必须放慢速度的地方。在你面前做你所有的思考和重新思考是高度重要的、不可逆转的决定,因为它们真的很重要,你明天不能撤销它们。

我认为其他三个象限可以快速行动、实验、试点、对你认为的东西持怀疑态度。但那个象限才是真正重要的地方。这就是我想让人们投入他们最好的思考,也许是他们最好的提示的地方。

[00:29:05] 山姆·奥特曼: 有道理。

[00:29:06] 亚当·格兰特: 所以我想问你一些你写的东西。

你写了一篇关于如何成功的博客。

[00:29:10] 山姆·奥特曼: 很久以前了。

[00:29:11] 亚当·格兰特: 那是很久以前的事了。

[00:29:12] 山姆·奥特曼: 我不再记得那件事了。

[00:29:14] 亚当·格兰特: 没关系。我这里有。其中有一部分关于自信的内容,我认为特别令人着迷,所以我在这里引用你的话,你写道,“自信非常有力量。我认识的最成功的人都相信自己,几乎到了妄想的地步。尽早培养这种能力,因为你会得到更多的数据点,证明你的判断力很好,并且你可以始终如一地交付成果。更加相信自己。” 你仍然同意这一点吗?

[00:29:36] 山姆·奥特曼: 我想是的。很难夸大其词。当我们创办 OpenAI 时,我们相信这一点。这大约是外界对 OpenAI 的怀疑达到顶峰的时候,相对于我们内部的信念。我认为在那个阶段我对公司最重要的贡献是,我只是不断地提醒人们,“看,外部世界讨厌任何新事物。讨厌任何可能与既定信念背道而驰的东西。所以人们对我们说了很多疯狂的负面言论,但我们取得了令人难以置信的进步。我知道现在还早,我知道我们必须暂时不去怀疑才能相信它会继续扩展,但它一直在扩展,所以让我们把它推到荒谬的地步。” 现在看来这似乎很明显。但在当时,我真的相信,如果我们没有这样做,它可能很长一段时间都不会发生,因为我们是唯一有足够自信去做看似荒谬的事情的人,那就是花费 10 亿美元来扩展 GPT 模型。所以我认为这很重要。

[00:30:32] 亚当·格兰特: 我认为这一切都是真的。我认为这也很可怕,因为同样是这些人,当他们相信自己到了妄想或几乎妄想的地步时,会在他们的专业领域之外做出糟糕的决定。

而且我认为,如果我要修改你写的内容,我会说,“当你获得更多的数据点证明你在给定领域中的判断力很好时。”

[00:30:52] 山姆·奥特曼: 是的,是的。

[00:30:53] 亚当·格兰特: 那么你应该在该领域中更加相信自己。

[00:30:55] 山姆·奥特曼: 那将是一种更好的表达方式。我不认为经验和能力完全不具有普遍性,但许多人试图将其过度概括。

我应该说一些关于“你的专业领域”之类的话,但这里有细微差别,因为我也认为你应该愿意做新的事情。你知道,我六七年前是一名投资者,而不是人工智能实验室的高管。

[00:31:17] 亚当·格兰特: 你所处的环境是稳定还是动态也非常重要,因为你可以相信你在稳定环境中基于直觉的判断,因为你已经下意识地内化了过去仍然会在未来保持的模式。

然而,如果你处于一个更加动荡的环境中,你的直觉通常是基于不适用的数据进行训练的,对吧?

[00:31:38] 山姆·奥特曼: 在那个世界里,我认为你甚至更想朝着你所相信的、对你有效的真正核心的基本原则前进,因为是的,甚至更有价值。

[00:31:47] 亚当·格兰特: 我想和你谈的最后一个话题是道德。我知道这也是你一直在思考的事情,经常谈论这个领域是大多数人最不愿意将任何判断外包给人工智能的领域。

[00:31:59] 山姆·奥特曼: 我也是。

[00:32:00] 亚当·格兰特: 我认为这是我们最终必须依赖人类的地方。我听到了很多“核威慑”之类的比喻,就像,“好吧,我们需要的是我们领先于不良行为者。然后我们将拥有相互确保的毁灭。” 等等,军备竞赛的比喻在这里不起作用,因为很多不良行为者不是国家行为者。

他们不会面临同样的风险或后果。然后也像,现在我们要相信一家私营公司而不是民选官员?这感觉非常复杂,就像它没有映射一样。所以请和我谈谈这一点,以及你如何看待道德和安全问题。

[00:32:36] 山姆·奥特曼: 首先,我认为人类必须制定规则,就像人工智能可以遵循它们一样,我们应该让人工智能遵循我们集体决定的规则,但人类必须制定这些规则。其次,我认为人们似乎无法不进行历史类比,我理解这一点,我不认为这全是坏事,但我认为这有点糟糕,因为历史的例子与未来的例子不同。

所以我鼓励人们尽可能地将讨论建立在“人工智能与以前的任何东西有何不同”的基础上。基于我们现在所知道的,而不是疯狂的猜测,然后尝试设计一个适用于此的系统。我真正相信的一件事是将人工智能部署为一种工具,显着提高个人能力、个人意志,无论你想怎么称呼它,对于我们目前的情况来说都是一个非常好的策略,并且比一个公司或对手或个人或其他什么人更好,有点像使用当今世界上所有的人工智能力量。但我也很乐意承认,我不知道当人工智能在很大程度上变得更加主动(Agentic)时会发生什么。不是像我们可以给他们一个任务,让他们编程三个小时,而是我们可以让他们去做一些非常复杂的事情,这通常需要整个组织多年的时间。我怀疑我们将不得不再次找出新的模型。我不认为历史会很好地为我们服务。

[00:33:53] 亚当·格兰特: 现在坦率地说,它在软件世界中没有。我认为任何其他强大的技术在美国都受到监管,我认为,你知道,当涉及到国会时,欧盟似乎更有能力一些。

[00:34:05] 山姆·奥特曼: 我认为欧盟在人工智能监管方面所做的事情由于另一个原因没有帮助,例如,当我们完成一个新模型时,即使它没有那么强大,我们也可以在美国发布它,远早于我们可以在欧盟发布它,因为有很多监管流程。如果这意味着欧盟总是落后于前沿几个月怎么办?我认为他们只会建立更少的流畅性、经济引擎和理解,以及你想朝那个方向发展的任何其他东西。真正正确地掌握监管平衡非常棘手,而且在我看来,我们显然需要一些监管。

[00:34:37] 亚当·格兰特: 在展望未来十年左右时,你最担心什么?

[00:34:41] 山姆·奥特曼: 我认为只是变化的速度。我真的相信解决每个问题的人类精神,但我们有很多问题需要很快解决。

[00:34:48] 亚当·格兰特: 当我思考道德和未来影响时,我一直在努力解决的另一件事是,我认为很多数字技术将会民主化,我们认为它们将防止或至少减少不平等。

而且很多时候情况恰恰相反,富人变得更富,因为他们可以更好地使用这些工具。现在你指出 O1 按美国标准来说相当便宜。我认为仍然存在访问差异。改变这种情况需要什么?人工智能在发展中国家成为一股向善的力量会是什么样子?

[00:35:22] 山姆·奥特曼: 我们已经能够将每单位智能的价格每年降低大约 10 倍。不能再那样做了。不。但我们已经这样做了很长一段时间,我认为智能变得如此便宜令人惊讶。

[00:35:35] 亚当·格兰特: 我想在某些方面,这与——至少现在——只有政府和负责任的大公司才能负担得起真正强大的模型的问题背道而驰。

[00:35:47] 山姆·奥特曼: 现在训练它,是的。

[00:35:49] 亚当·格兰特: 是的。但使用它是非常不同的。所以当你坐下来回顾过去,我的意思是三年,这一定就像。你经历了一生的变化。

[00:35:58] 山姆·奥特曼: 这很奇怪。

[00:35:59] 亚当·格兰特: 我猜一种说法是,你为什么要这样做?

[00:36:02] 山姆·奥特曼: 我是一个技术乐观主义者和科学迷,我认为这是我能想象到的最酷的事情,也是我能想象到的最好的方式,可以让我参与到我认为是我们一生中最有趣、最酷、最重要的科学革命中。所以这他妈的是一种荣幸。难以置信。然后,关于非自私的原因,我对科学进步感到一种责任感。作为社会进步的一种方式,在我有个人能力做出贡献的所有事情中,或者也许只是所有事情中,这是我认为将推动科学进步,从而提高生活水平、人类体验质量,无论你想怎么称呼它,向前推进最多的东西。

我感到一种责任感,但不是消极意义上的责任感,而是一种充满感激之情的责任感,因为我能够以任何方式做出贡献。

[00:37:00] 亚当·格兰特: 听起来像是责任。

[00:37:01] 山姆·奥特曼: 当然。

[00:37:02] 亚当·格兰特: 作为一个即将成为父亲的人,你希望看到下一代什么样的世界?

[00:37:10] 山姆·奥特曼: 富足是我脑海中浮现的第一个词,繁荣是第二个词,但你知道,总的来说,只是一个人们可以做更多事情的世界。就像,更充实,过上更好的生活。然而,我们为自己每个人定义这些东西,所有这些东西。可能和其他每个即将成为父亲的人都希望他的孩子得到的东西一样。

我当然从来没有对任何事情如此兴奋过。我认为这也不应该让不想生孩子的人去生孩子。所以我不想在这里使用“责任”这个词,但社会依赖于一些人生育一些孩子。

[00:37:35] 亚当·格兰特: 至少现在是这样。

[00:37:36] 山姆·奥特曼: 至少现在是这样。

[00:37:36] 亚当·格兰特: 我不认为我听过你像今天这样强烈地表达,你也是一个相信人类的人,而不仅仅是相信技术。我认为在某些方面,这是一个危险的境地,就像我们在社交媒体上看到的那样,但我认为这也像是构建技术的赌注,你必须关心和相信。

[00:37:57] 山姆·奥特曼: 我倾向于乐观,即使我试图做到准确。

但是,如果对技术过于乐观,就像,无论如何,如果你对人类过于乐观,如果我们推出这些工具,我们可能会面临危险,“是的,人们会用它做更多的好事而不是坏事”,而我们在某种程度上对人性完全错误。那将是我们战略的缺陷,但我不相信这一点。

[00:38:15] 亚当·格兰特: 好吧,祈祷吧。山姆,谢谢你抽出时间来做这件事。我学到了很多,并且非常享受。

[00:38:19] 山姆·奥特曼: 谢谢你邀请我。这很有趣。

[00:38:20] 亚当·格兰特: 是吗?你来判断。我从与山姆的这次谈话中得到的最大收获是,技术进步可能是不可阻挡的,但人类的适应也是如此。

机器可以取代我们的技能,但它们不会取代我们的价值或价值观。“重新思考”由我亚当·格兰特主持。该节目是 TED 音频团体的一部分,本集由 Cosmic Standard 制作和混音。我们的制作人是汉娜·金斯利·马和阿亚·辛普森。我们的编辑是亚历杭德拉·萨拉查。

我们的事实核查员是保罗·杜宾。汉斯·戴尔·苏和艾莉森·莱顿·布朗的原创音乐。我们的团队包括伊丽莎·史密斯、雅各布·温尼克、萨马亚·亚当斯、罗克珊·海拉什、班班·程、朱莉娅·迪克森和惠特尼·彭宁顿·罗杰斯。

[00:39:14] 山姆·奥特曼: 我收到了很多令人惊讶的电子邮件,就像陌生电子邮件或其他什么,有人会说,“我承认,这是在 ChatGPT 的帮助下写的。” 如果我回复,我会尽量说,“永远不需要再那样做了。如果你再给我发电子邮件,我会接受要点。” 所以这是我对这场斗争的一点小贡献。

[00:39:28] 亚当·格兰特: 哇。然后在底部有一个小免责声明,说“此回复也是由 ChatGPT 撰写的。”

[00:39:33] 山姆·奥特曼: 嗯,如果我这样做,我会披露,但我,我不会,我通常只是写回我的两个要点。

结语

在 AI 时代,提出问题的能力将比单纯的 “知识储存” 更重要。



(文:AI信息Gap)

欢迎分享

发表评论