AI 大神 Karpathy 演讲刷屏:软件 3.0 时代已来,提示词就是新代码 附完整PPT

不在 OpenAI 的 Andrej Karpathy,始终是传说。


近日,Karpathy 受邀在 YC AI 创业学校活动发表演讲,一经发布,全球网友就like开始学习。



这是一场看似松散、其实处处埋点的演讲。


Karpathy 精心准备了 PPT,对整个演讲内容进行了编排:这像是一次编程语言进化史的讲解,从软件 1.0 的时代开始讲起,到以「喂数据」为核心的。到了 3.0 则是「对模型说咒语」。


他再一次强调了「LLM 是新操作系统」,并进一步延伸到了 AI 与人类相似的心理特征,最终得出结论:AI 应该增强人类,而非替代人类。


这是他对 LLM 时代的理解,也是一个研究者和 builder 的技术世界观。它不再是激情澎湃的预测,而是一个自我梳理后交出的分享:语言正在变成控制系统,而我们,而每个人都拥有语言接口的一部分。


因为演讲内容过于丰富,我们将它浓缩成了一套「金句卡片」:一句话锚点 + 一段解释,希望你能像翻读卡片一样,直击中心,也许哪一句就能成为你下一个创造的起点。


后台回复 KP ,获取完整版演讲 PPT

Karpathy 讨论了两种对于 LLM 的比喻:电网和芯片工厂。LLM 的发展类似于电网,需要巨大的资本支出(CapEx)来建设,然后通过 API 以计量付费的方式提供服务。也像芯片制造厂,因为构建它需要巨额投资,并且技术分支发展迅速。
然而,他认为更恰切的,是把 LLM 比喻为操作系统 (Operating Systems)。 他强调,LLM 并非像电力或自来水那样可以随意取用、没有差异的「商品」 。相反,它们是日益复杂的软件生态系统,这个特性使得「操作系统」成为一个更精确的类比。
他把闭源的 LLM 提供商比作 Windows 和 Mac OS,而将开源的 Llama 生态比作 Linux,把 LLM 本身比作 CPU,上下文窗口(Context Windows)比作内存(RAM),而 LLM 的工作方式就是像操作系统一样,调度这些「硬件」资源来解决问题。
既然 LLM 是正在形成复杂的生态系统,而非简单的商品,那么还可以进一步从计算机体系结构的角度去理解大语言模型。作为 CPU 的模型本身,就是执行计算和推理的核心。上下文窗口即是内存,就可以用来临时存放当前工作所需要的信息。
而一个整体的工作流,就如同操作系统,负责调度 CPU 和内存等资源,以完成用户提出的复杂任务。
在 Karpathy 的设想中,大模型不再停留在宏观的商业模式,而是一个全新的计算平台。
即便 LLM 会成为一个计算平台,眼下最主流的,直接通过聊天框式的纯文本与强大的 LLM 「操作系统」 交互的形式,并不会长久。
Karpathy 以 Cursor 为例子,提出编程语言中,通过 GUI,用户可以直观地看到红色和绿色高亮显示的代码增删,并用快捷键(如 Command+Y)快速接受或拒绝 。这种方式远比用自然语言描述「请接受第二处修改但否决第一处」要高效得多、直观得多。
GUI 利用了人类强大的视觉处理能力,极大地加速了对 AI 工作成果的「验证」和「审计」环节。尽管 LLM 的核心是语言模型,但要构建出真正实用的「能自动化的应用」,就决不能忽视 GUI 的力量。
一个精心设计的 GUI 是连接人类用户和 AI 「操作系统」之间最高效的桥梁,它使得人机协作的「生成-验证」循环能够飞速运转。
Karpathy 提出的这几个问题,指向的是如何让 LLM 产品更自动化——至少部分的自动化。将任何传统软件改造为 AI 可驱动的「部分自主的应用」所必须满足三个前提条件:
-感知 (Perception): AI 代理需要能够「看到」所有人类用户能看到的信息。
-行动 (Action): AI 代理需要能够执行所有人类用户能执行的操作。
-监督 (Supervision): 必须有一个机制,允许人类监督 AI 的工作并随时介入,因为 AI 系统目前并不可靠。
一个至关重要的结论是:当前绝大多数软件的界面(各种开关和设置)都是纯粹为人类设计的。这恰恰是实现 AI 自动化的障碍。因此,他呼吁是:「所有这一切都必须改变,变得对大语言模型可访问 」。
作为前特斯拉总监,Karpathy 的经历和看法显然比任何人的锐利:软件和现实世界的复杂性远超想象。这也是他对 AI agent 的态度。
对于动辄就高举的「agent 元年」,他实际上非常谨慎。他认为,这应该是「代理人的十年 (decade of agents)」,而不是一年。
归根到底,从一个令人惊艳的演示(99% 的成功)到真正可靠、能处理所有极端情况的成熟产品(99.999% 的成功),中间隔着一条漫长而艰难的鸿沟。
在加入 OpenAI 之前,Karpathy 就对教学非常感兴趣。不仅在斯坦福时期就当助教,自己还制作了一系列科普视频。他始终在思考:AI 时代的教育是什么样的。其中的一个关键点是:如何让 AI 不失控。
「失控」的 AI 无法胜任教育的任务。一个完全开放式的、无结构的指令,会让 AI 缺乏方向。即便是「教我物理」这样的任务,也会导致 AI 无法出具一个连贯的教学大纲、清晰的知识递进层次和结构化的教学路径,最终导致教学失败。
这完美地印证了他之前关于「过度反应的代理 (over-reactive agent)」会产生无用结果的观点。因此,他认为应该把 AI 限制在人类的产出当中。比如让教师与 AI 协作,创建一个结构化的「课程」。这个课程就是一个可以被审核和验证的中间产物,从而确保了教学质量,避免了「迷失方向」的问题。
LLM 也有心理学?起码 Karpathy 相信这一点。毕竟,AI 是通过学习和拟合互联网上几乎所有人类编写的文本数据来进行训练。
但这也意味着,AI 既是强大的,也是脆弱的——既包括超能力,也包括认知缺陷。LLM 有着百科全书般的知识储备,Karpathy 把它比作电影《雨人》中的主角。但是一系列缺点也都存在,比如幻觉、智能水平参差不齐,以及像患有「顺行性遗忘症 (anterograde amnesia) 」一样的有限记忆能力等。
AI 是在海量的人类数据上训练出来的,所以它不可避免地涌现出了类似人类的心理特征,无论好与坏。
毫无疑问,LLM 颠覆了传统的技术扩散方向——这也是为什么 Karpathy 说,现在是进入行业的好时机。
过去的颠覆性技术,都是先由政府和企业使用,再逐步普及到消费者。但 LLM 完全相反,它首先通过消费级应用(比如问 ChatGPT 如何煮鸡蛋)触达大众,而政府和企业在采用上反而滞后了。
一整场下来,Karpathy 并没有在「画大饼」,而是在给出一层又一层新的视角,以及是一种不断自我迭代的思维方式——而这,正是每个都还在学习如何穿上「AI 战甲」的人所真正需要的。
欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取#AI有用功,解锁更多 AI 新知👇
我们正在招募伙伴
📮 简历投递邮箱hr@ifanr.com
✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
更多岗位信息请点击这里🔗

(文:APPSO)

发表评论