奥尔特曼指责专制国家丧失AGI自主权,确保AGI惠及全人类很重要|

2月10日凌晨,OpenAI CEO Sam Altman(奥尔特曼)发布了一篇深度文章《Three Observations》,讨论了AGI的到来和影响。
全文以「三大观察」为核心,提出AI经济学领域的三点洞察:
  1. AI模型智能水平与其训练和运行计算资源呈对数关系

  2. 使用特定水平的AI成本每12个月降约10倍

  3. 智能的线性增长能带来超指数级的社会经济价值

奥尔特曼强调,OpenAI正在全力布局AI Agent,这些成千上万的智能体最终会被广泛使用,成为各种业务场景中的虚拟同事。初级Agent的性能可能会差一些,但他们仍然会渗透到各个领域重塑世界经济。

奥特曼预测,AI智能体可以取代顶级公司的软件工程师,能够在1-2天内完成他们的大部分工作。「未来会有1000个,甚至100万个智能体遍布工作的各个领域」。奥特曼定律:AI可能会成为下一个晶体管。

那么,AGI正加速到来,重塑经济和社会。算力成本骤降,智能爆发式增长,未来十年每个人或将拥有超凡能力。在技术浪潮中,我们将走向何方?

2月3日,东京大学全球教育中心的“对话” 系列活动邀请了OpenAI首席执行官萨姆·奥特曼和首席产品官凯文·韦尔,在讨论中,奥特曼表示,过去OpenAI选择了相对保守的方式,但其团队已经在向更开放的方向迈进。
在被问及未来是否会更多地开源AI模型时,奥特曼提到,开源模型的益处显而易见,它有助于推动技术在全球范围内的普及,使更多开发者可以使用这些工具进行创新和研究。然而,模型的开源也伴随着许多潜在的风险,例如模型可能被用于恶意目的,或者未经过完善管理的情况下导致技术失控。因此,技术的开放性必须和相关的控制机制相结合,确保其应用是可控并且对社会有利。
开源虽然可以降低某些应用门槛,但与开源模型的普及同样重要的是:社会在使用和整合这些技术时必须建立清晰的伦理准则。随着AI逐步深度融入各行业,如果没有切实的政策引导和行业标准,开源模型的风险可能会随之放大。
OpenAI也在认真评估开源的时机和方式,以便既能推动技术的可及性,又能尽可能降低潜在的社会风险。他特别提到,AI技术的快速迭代使得模型的核心算法和框架已经变得更高效、更小型化,可以在更少的资源条件下实现AI能力的扩展,这为开源带来了一些新的可能。
他还补充道,未来的AI演化方向将更注重模型能力与现有社会、经济框架的默契整合。渐进式拥抱开源、大规模实验化使用以及社区协作将是迈向这一目标的关键路径。OpenAI团队也在研究如何在促成新型开源模式的同时,加强技术对社会整体价值的贡献。他表示欢迎来自不同社区、行业和政府的多方意见,一同打造AI开源的未来蓝图,使其成为技术进步的助推器,而非风险的催化剂。
在谈到如何组建初创公司团队时,奥特曼指出,激情和毅力是创业者和团队成员身上最重要的品质。早期创业阶段的挑战很多,这些挑战既需要创始人有无限的精力和决心去克服,也需要团队具备一种“坚持不懈而富有资源意识(relentlessly resourceful)”的特质。他强调,创业团队的成功很大程度上依赖于他们的适应能力以及快速应对变化的能力。因此,与其单纯寻找某些领域的具体技能,创业者在组建团队时更应关注团队成员是否具有灵活的学习能力和问题解决能力。
在具体的创业方向选择上,他建议年轻的创业者寻找那些能够充分利用人工智能潜力的领域。AI技术的进步非常迅速,如果一家初创企业依赖于当前的技术能力且没有前瞻性规划,很容易受到下一代AI技术的冲击。相反,如果能够专注于在技术能力边界范围内开发产品,在AI能力每次迭代时都受益并实现产品升级,企业的前景会更加光明。首席产品官凯文也补充指出,创业者应当积极利用新兴技术的优势,将AI的不断发展整合到产品中,从而始终保持技术领先地位。
他提及到了一些具体的创业书籍和资源,他特别推荐了彼得·蒂尔的《从0到1》一书。这本书深入探讨了创业中的差异化问题,以及如何在竞争激烈的市场中创造出具有可持续竞争力的产品。他认为,“创造持久价值并在市场上区别于其他产品”,这个创业核心理念即便在AI技术主导的新时代仍然适用。创业者需要找到某种独特的价值主张,而非仅仅依赖AI或其他特定技术的流行趋势作为卖点。
奥特曼对创业者的最后建议是,永远保持对未来的敏锐感知和探索精神。他指出,人工智能技术开辟了许多新领域,包括教育、能源、科研、医疗和工业自动化,每个领域都充满了潜在的创业机会。他鼓励年轻人主动思考如何利用AI技术去解决世界上的重大问题,而不只是局限于技术本身的发展。通过瞄准具有社会意义的目标,同时紧密结合技术前沿,创业者不仅可以获得成功,还能够为社会创造深远的影响。

接下来,奥特曼谈到了更多未来计划。

o3的发布已经为未来6~12个月的研究点明了方向,OpenAI将尽可能推动小型、功能强大且速度极快的推理模型,同时也会继续推进GPT 6/7等。

过程中,他着重提到OpenAI最近向Pro用户推出的“深度研究”(Deep Research)功能,这是一个使用推理来综合大量在线信息并为用户完成多步骤研究任务的智能体,能帮助用户进行深入、复杂的信息查询与分析。

在他看来,OpenAI一大重点也是发布更多此类智能体,而且梦想之一是搞一个编程智能体。

总之,今年的主线任务是,到年底能够有一个模型,即便用户问出非常难的问题,它也能在运行并思考几小时后准确作答。

全文整理如下:
《三点洞见》
我们的使命是确保AGI(通用人工智能)造福全人类。 
开始指向 AGI* 的系统正在出现,因此我们认为了解我们所处的时代非常重要。AGI 是一个定义不明确的术语,但一般来说,我们的意思是它是一个可以在人类层面上在许多领域解决日益复杂的问题的系统。
人类是工具制造者,具有与生俱来的理解和创造的动力,这让世界变得越来越美好。每一代人都会在前几代人的发现的基础上创造更强大的工具——电力、晶体管、计算机、互联网,以及即将出现的 AGI。
随着时间的推移,人类创新的稳步前进带来了过去难以想象的繁荣,并改善了人们生活的几乎每个方面。
从某种意义上说,AGI 只是我们共同打造的人类进步的更高支架上的一个工具。从另一个意义上说,这是某个事物的开始,我们很难不说“这一次不同”;我们面前的经济增长看起来令人惊叹,我们现在可以想象一个我们治愈所有疾病、有更多的时间与家人共度时光、并能充分发挥我们的创造潜力的世界。
十年后,也许地球上的每个人都能取得比当今最有影响力的人更多的成就。
我们继续看到 AI 发展取得快速进展。以下是有关 AI 经济学的三点观察:
1.AI 模型的智能程度大致等于用于训练和运行该模型的资源的对数。这些资源主要是训练计算、数据和推理计算。看来你可以花费任意数量的资金并获得持续且可预测的收益;预测这一点的缩放定律在许多数量级上都是准确的。
2.使用给定级别的 AI 的成本每 12 个月下降约 10 倍,而较低的价格可带来更多的使用。您可以从 2023 年初的 GPT-4 到 2024 年中期的 GPT-4o 的代币成本中看到这一点,在此期间每个代币的价格下降了约 150 倍。摩尔定律每 18 个月改变世界 2 倍;这令人难以置信地强大。 
3.智力线性增长的社会经济价值本质上是超指数级的。其结果是,我们认为没有理由在短期内停止投资的指数级增长。
如果这三点观察结果继续成立,将对社会产生重大影响。
我们现在开始推出 AI Agent,它们最终会感觉像虚拟同事一样。
让我们想象一下软件工程Agent的情况,我们认为这个Agent特别重要。想象一下,这个Agent最终将能够完成一家顶级公司拥有几年经验的软件工程师可以完成的大多数工作,这些任务最多需要几天时间。它不会有最伟大的新想法,需要大量的人工监督和指导,它在某些方面会很出色,但在其他方面却出奇地糟糕。
尽管如此,想象一下它是一个真实但相对初级的虚拟同事。现在想象一下有 1,000 个这样的人。或者 100 万个。现在想象一下在知识工作的每个领域都有这样的Agent。
从某些方面来看,Ai 可能就像是晶体管的经济效应——一项具有良好规模并渗透到经济几乎每个角落的重大科学发现。我们不太关注晶体管或晶体管公司,而其收益分布非常广泛。但我们确实希望我们的电脑、电视、汽车、玩具等能够创造奇迹。
世界不会一下子改变;它永远不会改变。短期内,生活将基本保持不变,2025 年的人们将以与 2024 年相同的方式度过时间。我们仍会坠入爱河、建立家庭、在网上打架、在大自然中远足等。
但未来将以一种无法忽视的方式向我们走来,我们的社会和经济将发生巨大的长期变化。我们将找到新的事情去做,找到新的方法来互相帮助,找到新的方法来竞争,但它们可能看起来与今天的工作不太一样。 
能动性、意志力和决心可能会非常有价值。正确地决定做什么,并弄清楚如何驾驭不断变化的世界将具有巨大的价值;韧性和适应性将是值得培养的有用技能。AGI 将成为人类意志力的最大杠杆,并使个人比以往任何时候都具有更大的影响力,而不是更小。
我们预计 AGI 的影响是不均衡的。尽管有些行业变化不大,但科学进步的速度可能会比现在快得多;AGI 的这种影响可能超越其他一切。
许多商品的价格最终将大幅下降(目前,智力成本和能源成本制约了很多东西),而奢侈品和土地等一些本质上有限的资源的价格可能会大幅上涨。
从技术角度来看,我们面前的道路看起来相当清晰。但关于如何将 AGI 融入社会的公共政策和集体意见非常重要;我们尽早并经常推出产品的原因之一是让社会和技术有时间共同发展。
AI 将渗透到经济和社会的各个领域;我们期望一切都变得智能。我们中的许多人预计需要给予人们比过去更多的技术控制权,包括更多地开源,并接受安全和个人赋权之间的平衡,这需要权衡。
虽然我们永远不想鲁莽行事,而且与 AGI 安全相关的一些重大决策和限制可能会不受欢迎,但从方向上看,随着我们越来越接近实现 AGI,我们相信更加倾向于赋予个人权力是重要的;我们可以看到另一条可能的道路是,专制政府利用 AI 通过丧失自主权来控制其人口。
确保 AGI 的益处得到广泛传播至关重要。技术进步的历史影响表明,我们关心的大多数指标(健康结果、经济繁荣等)在平均水平和长期来看都会变得更好,但提高平等似乎并非由技术决定的,要做到这一点可能需要新的想法。
尤其是,资本和劳动力之间的权力平衡似乎很容易被打乱,这可能需要尽早干预。我们愿意接受一些听起来很奇怪的想法,比如提供一些“计算预算”,让地球上的每个人都能使用大量 AI,但我们也看到,只要坚持不懈地将智能成本压低到尽可能低,就能产生预期的效果。
2035 年的任何人都应该能够调动与 2025 年每个人相同的智力;每个人都应该能够利用无限的天才来指导他们所能想象的一切。现在有很多人才没有资源来充分表达自己,如果我们改变这种状况,那么由此产生的世界创造性成果将为我们所有人带来巨大的利益。

此外,Google旗下DeepMind的执行长哈萨比斯(Demis Hassabis)周日(9日)评论,Deepseek的AI模型「可能是中国最好作品」,但并未呈现出任何新的科学进展。


(文:钛媒体AGI)

欢迎分享

发表评论