红杉资本对谈OpenAI前研究主管:专有数据正在贬值,构建AI护城河的4个关键点

进入2025年,AI世界正在发生深层结构性的变化。


红杉资本近期专访了OpenAI前研究主管 Bob McGrew——他曾主导GPT-3、GPT-4以及内部代号为 o1/o3 的推理模型研发,并首次提出“预训练、后训练、推理”三位一体的模型演化框架。


在McGrew看来,通向AGI的底层逻辑已基本锁定:Transformer 架构、规模化预训练、推理能力三者构成技术三支柱。而其中“推理”——这个长期被低估的维度——正成为2025年模型能力突破的主战场。


McGrew坦言,能力边际已经从“堆算力”转向“学思考”;代理服务也将被彻底商品化,未来不再按“人类替代值”定价,而是按“运行所耗计算成本”来标价。在前沿模型日趋同质化的时代,真正的竞争优势,恰恰来自“模型之外”的系统能力、业务集成与数据信任。


这是一场从技术路线到商业定价、从能力飞跃到落地护城河的全景思考。


/ 01 /

推理是2025年最关键的能力突破口


“如果你看o1-preview和o3之间的能力差距,你会发现最大的区别是——o1不会使用工具,而o3可以把工具调用纳入思维链。这种能力的提升,在训练阶段其实早就知道是必须的,但实现它,花了我们六个月。”


在McGrew看来,推理是一种“新基础能力”,它不是对已有模型的微调优化,而是一种质变:模型不再只是生成答案,而是能在生成过程中进行任务分解、中间验证、条件性判断与工具协同


推理的核心,不是更多的数据或者参数,而是更接近人类“先思考、再回答”的认知结构。


GPT-3的结构中并不具备草稿本或逻辑链,它只是模拟了过去人类的最终答案。而推理让模型拥有了中间过程的建构能力,这不仅是技术能力的拓展,更是模型思维范式的转变。


为什么是现在?McGrew给出的答案是:能力边际正在迁移


过去几年预训练带来的能力增长明显,如今,随着计算资源瓶颈趋紧、数据重复度上升、模型规模放缓,推理成为唯一还能实现非线性跃升的“自由变量”。而这也是OpenAI、Anthropic、DeepSeek等实验室此刻集中投入的方向。


/ 02 /

预训练并未失效,但其角色已发生根本性变化


“预训练仍然是必须的,它是结构优化和上下文能力提升的基础。但智能增长和算力的对数关系意味着,收益已经开始递减。你需要花数月时间霸占整个数据中心,才能训练出一个差异不大的模型。”


McGrew指出,预训练从模型能力的“主引擎”转向了支撑系统结构优化的“幕后地基”。一方面,预训练不再带来显著的通用能力提升;另一方面,结构性优化(如上下文窗口拓展、注意力机制重构、多模态融合)仍需以完整预训练过程来支持。


因此,2025年之后的预训练将更少是能力竞速,而更多是一种面向架构演化的基础性工程。例如,如果你希望提升推理效率或增加token记忆长度,你需要在架构层面做出改动,再围绕这个新架构重新进行预训练。这是一项代价高昂但不可避免的任务。


 “能力真正的杠杆点已从‘更大’转向‘更聪明’。”


/ 03 /

代理将被商品化,不能按人类价值定价


“你不能认为一个AI律师就值人类律师的钱。律师贵,是因为人类律师的时间稀缺;AI律师一旦出现,就是无限供应,边际成本趋近于零。”


McGrew强调,AI代理的基本经济学逻辑与人类服务本质不同。人类收费是基于时间、稀缺性、不可复制性;而AI代理具备近乎无限的复制能力,它的价格最终必然逼近“运行它所消耗的计算成本”


他将其称为 “计算单位定价”逻辑。这意味着,AI代理不会因为“完成的是人类高价值任务”而能索取高价。任何以此为基础的商业模式,都会因供给激增而失效。


“你的AI代理初创项目,也许能先跑出来,但别人只要调用相同的前沿模型,就能复制你的产品。长期来看,你的利润空间将被压缩到底层算力的边际溢价。”


所以,初创公司的护城河,不可能来自“模型能力”,只能来自:


  • 网络效应(如ChatGPT用户粘性)

  • 品牌心智占位(如Perplexity的认知定位)

  • 分销路径与数据闭环

  • 企业流程的高集成度


/ 04 /

模型层竞争趋同,初创机会在“系统层”而非“能力层”


当模型能力逐渐“同质化”,McGrew认为,初创公司不应再盯着“做出更强模型”,而应转向围绕模型构建系统性应用结构


以Palantir AIP和Distyl为例,他们并不训练模型,而是通过:


  • 系统性接入企业业务流程

  • 自动化提取上下文信息

  • 标准化输入、优化输出结构

  • 在端到端流程中构建高粘性、高依赖度的决策链


这些系统不是“更聪明”,而是“更贴近业务流动性”,也因此具备现实可用性与防御性。对此,McGrew总结为:


“大型实验室不会为一个中型企业的业务问题训练一个新模型,但你可以为这类问题构建一个稳定、通用的任务接口和交付系统。”


/ 05 /

机器人进入产业转折点,语言+视觉+模型共振让通用任务执行成为现实


回忆2016年McGrew自己做机器人跳棋项目,他承认:“很酷,但完全无法商业化。”


今天不同了。


“我们不再需要教机器人每一步,而是用语言描述任务,用视觉模型理解环境,然后由通用模型规划执行。这种范式上的变化,使机器人从原型走向现实。”


他尤其提到Physical Intelligence这类公司,能在几个月内解决“折衣服、装箱”等多步骤操作任务,这是传统机器人研发可能需要3年完成的挑战。


关键转变在于:


  • 语言接口:不再硬编码任务逻辑,而是自然语言调用;

  • 视觉模型:借助强大的感知能力理解环境变化;

  • 模型迁移能力:从过去任务中快速学习,完成组合型推理与执行;


这意味着机器人已不再是“远期革命”,而是现阶段最接近商业爆发的AI子方向之一。


/ 06 /

专有数据的价值正在下降,AI能重建你花年积月累的内容


McGrew的判断异常冷静:


“许多所谓的专有数据,其实只是过去人工劳动的痕迹——访谈、调研、研究报告。AI今天已经可以直接生成这些。”


他指出,AI模型具备了“重新发明劳动成果”的能力——即便没有原始数据,它也能通过生成、对话、归纳等方式重构结果。因此,那些靠人力一点一点堆出的专有数据壁垒,正在被击穿


唯一仍有价值的,是以下两类:


1.客户授权的数据:如银行、财务顾问手中掌握的客户目标、风险偏好等

2.实时上下文闭环数据:如端上行为、隐式决策偏好,AI无法从公共数据中还原


这意味着,数据的壁垒从“积累多少”转向“能否获得授权与信任”。


/ 07 /

AI+编程:人机协作成为长期常态,自动化不代表“替代”


McGrew明确指出,编程领域正在快速“过临界点”:


  • 自动生成函数、重构模块、迁移代码成为代理式AI的擅长项;

  • 人类程序员更多负责设计结构、理解上下游依赖、制定高层架构。


“你可以让AI从COBOL翻译到Python,但你不能让它理解‘为什么当时这个系统这么设计’。”


他说,现在许多AI原型做出来都“能用”,但代码质量不稳定、可维护性低,无法进入真实生产环境。最终的落点不是全自动,而是“人类做架构,AI做实现”。


因此,AI对编程的改变更像是“带了一个聪明又听话的初级工程师”,而不是“完全不用写代码”。


/ 08 /

教育的关键是训练“问题提出者”,不是培养答案记忆者


谈到下一代如何适应AI时代,McGrew强调的不是编程能力,而是好奇心与行动力的结合。


你要相信自己能做事,然后知道用工具把事做出来。”


他分享了8岁儿子用ChatGPT设计家用提醒系统的故事——从零了解电路板、询问器件、购买零件、组装线路、调试代码,全程靠AI辅助完成。这不是投机取巧,而是把AI当作一套“行动放大器”。


 “如果你愿意提出问题,那说明你已经准备好学会它了。AI能在你准备好那一刻,把所有知识送到你面前。”


这是一种“反学校式”的学习方式,也许会重塑整整一代人的知识观与动机模型。


/ 09 /

结语:技术路线已经明确,变数在于谁能落地做出“可持续系统”


McGrew回忆2020年GPT-3完成训练时的场景:OpenAI会议室内,几位核心成员都意识到——技术路线已清晰,接下来是如何落地、如何将思维能力转为系统执行能力。


从2020到2025,正如他所说:


“Transformer、预训练、推理——这三件事就是AGI的三条腿。2035年我们回望,很可能依然是它们支撑着一切。”


在这个结构日趋稳定、能力门槛不断抬升的时代,创业者唯一能做的,就是找到那个别人不愿做、实验室不擅长做、但现实世界急需解决的问题,并用系统性方式把它变成一门生意。


McGrew的这句话,也许是对初创者最冷静但最清晰的忠告:


“你不能只关注模型能做什么,更要关注现实需要它做什么。”




PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。



(文:乌鸦智能说)

发表评论