大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效率提升,AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。
OpenAI和马斯克,这两个名字放在一起,注定要掀起一场科技圈的风暴。
今天,这场风暴再次升级!OpenAI刚刚放出了一系列重磅炸弹,一连串从未公开的短信和邮件,彻底揭露了马斯克当年试图掌控OpenAI的野心。
早期,马斯克质疑OpenAI的非营利结构,并预见到构建AGI需要巨额资金。随着OpenAI在2017年意识到计算资源的巨大需求,双方都同意转向营利性结构以获取足够资源。然而,在谈判过程中,马斯克要求获得多数股权、绝对控制权和CEO职位,这与OpenAI团队“确保AGI造福全人类”的使命相悖(OpenAI自己的说法)。OpenAI团队担心马斯克会在AGI开发的关键时刻选择保留绝对控制权,最终拒绝了他的条件。谈判破裂后,马斯克提议将OpenAI并入特斯拉,但遭到拒绝。随后,马斯克退出OpenAI,并多次批评其执行和资源不足。2019年,OpenAI成立了有利润上限的OpenAI LP。2023年,马斯克创立了xAI,成为OpenAI的直接竞争对手。
以下附上OpenAI博文全文翻译(翻译来自200万tokens上下文的Gemini-Exp-1206
),前方1.6万字长文预警。
Elon Musk wanted an OpenAI for-profit
埃隆·马斯克想要一个营利性的OpenAI
事件时间线
-
2015年11月: OpenAI作为一个非营利组织成立,埃隆对此表示质疑。 -
2015年12月: OpenAI公开宣布成立。 -
2017年初: 我们的研究进展使我们意识到,我们需要数十亿美元的计算资源来构建AGI。 -
2017年夏天: 我们和埃隆都同意,营利性公司是OpenAI推进其使命的下一步。 -
2017年秋天: 埃隆要求获得多数股权、绝对控制权,并担任营利性公司的首席执行官。 -
2017年9月: 埃隆创建了名为“开放人工智能技术公司”的公益公司。 -
2017年9月: 我们拒绝了埃隆的条件,因为让他单方面控制OpenAI及其技术将违背我们的使命。 -
2018年1月: 埃隆表示,除非我们并入特斯拉,否则OpenAI注定会失败。 -
2018年2月: 埃隆辞去OpenAI联合主席的职务。 -
2018年12月: 埃隆告诉我们,要“立即每年筹集数十亿美元,否则就别想了”。 -
2019年3月: 我们宣布了由非营利组织管理的、有利润上限的OpenAI LP。 -
2023年3月: 埃隆创立了他的OpenAI竞争对手xAI。
埃隆·马斯克最近对OpenAI提起的法律诉讼标志着他在不到一年的时间里第四次试图重新阐述他的主张。然而,他自己的言行说明了一切——在2017年,埃隆不仅想要,而且实际上创建了一个营利性公司作为OpenAI的拟议新结构。当他没有获得多数股权和完全控制权时,他离开了,并告诉我们我们会失败。现在,OpenAI是领先的人工智能研究实验室,而埃隆经营着一家与之竞争的人工智能公司,他要求法院阻止我们有效地追求我们的使命。
开放人工智能技术公司实体注册

埃隆·马斯克于2017年9月15日创建的公益公司,作为OpenAI的拟议未来结构。
你不能通过起诉来实现AGI。我们非常尊重埃隆的成就,并感谢他对OpenAI的早期贡献,但他应该在市场上竞争,而不是在法庭上。美国保持在全球人工智能领域的领先地位至关重要。我们的使命是确保AGI造福全人类,我们一直并将继续是一个以使命为导向的组织。我们希望埃隆认同这一目标,并坚持推动他自己成功的创新和自由市场竞争的价值观。
2015年11月:OpenAI作为一个非营利组织成立,埃隆对此表示质疑
2015年11月20日,埃隆说:“而且,这种结构似乎不太理想……也许最好有一个标准的C类公司和一个并行的非营利组织。”我们当时认为非营利组织是正确的道路,但后来意识到,我们的结构必须演变才能吸引到完成使命所需的资本。
关于:人工智能文件––––– 转发邮件 –––––
发件人:埃隆·马斯克 <已编辑>
日期:2015年11月20日星期五下午12:29
收件人:山姆·奥特曼 <已编辑>我认为这应该独立于(但由)YC支持,而不是听起来像一个子公司。
此外,这种结构似乎不太理想。特别是,YC的股票加上非营利组织的薪水,混淆了激励机制的一致性。也许最好有一个标准的C类公司和一个并行的非营利组织。
在2015年11月20日上午11:48,山姆·奥特曼 <已编辑> 写道:
埃隆–
计划是让你、我和伊利亚加入YC AI的董事会,这将是一个特拉华州的非营利组织。我们还将声明,我们计划通过董事会的多数投票选举另外两名外部人员。
我们将在章程中写入,任何可能危及人类安全的技术必须获得董事会的同意才能发布,我们将在研究人员的雇佣合同中引用这一点。
从高层次来看,这对你来说行得通吗?
我在这里抄送了我们的总法律顾问 <已编辑>——你的办公室里有没有人可以和他一起处理细节?
山姆
2015年12月:OpenAI公开宣布成立
OpenAI被介绍给全世界。
2017年初:我们的研究进展使我们意识到,我们需要数十亿美元的计算资源来构建AGI。
2017年,我们在构建用于竞争性电子游戏Dota的AI方面取得了进展。我们发现,我们需要比最初想象的更多的计算资源。
2017年6月13日,埃隆在一封电子邮件中回复说:“好的。让我们找出确保计算能力不受限制的最便宜的方法……”
伊利亚在2017年7月12日重申:“每年,我们都需要成倍增加我们的硬件支出,但我们有理由相信,最终可以用不到100亿美元的硬件构建AGI。”
关于:后续想法
发件人:埃隆·马斯克 <已编辑>
日期:2016年2月19日星期五凌晨12:05
收件人:伊利亚·苏茨克维 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>,山姆·奥特曼 <已编辑>坦率地说,让我感到惊讶的是,人工智能社区花了这么长时间才弄清楚这些概念。这听起来并不难。大量深度网络的连接听起来像是正确的方法,或者至少是正确方法的一个关键部分。
DeepMind创造出深度思维的可能性每年都在增加。也许它在2到3年内不会超过50%,但它很可能超过10%。考虑到他们的资源,这对我来说并不疯狂。
无论如何,我发现高估竞争对手比低估竞争对手要好得多。
这并不意味着我们应该匆忙招募弱势人才。我同意这样做不会有什么好结果。我们需要做的是加倍努力,寻找世界上最优秀的人才,不惜一切代价让他们加入,并给公司注入强烈的紧迫感。
OpenAI在未来6到9个月内取得一些重大成果以证明我们是认真的,这将非常重要。不需要是重大的突破,但它应该足以让世界各地的关键人才坐起来并注意到。
发件人:伊利亚·苏茨克维 <已编辑>
日期:2016年2月19日星期五上午10:28
收件人:埃隆·马斯克 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>,山姆·奥特曼 <已编辑>
几点说明:
并非一旦我们解决了“概念”,我们就得到了人工智能。其他必须解决的问题包括无监督学习、迁移学习和终身学习。我们现在在语言方面也做得很差。这并不意味着这些问题在未来几年不会取得重大进展,但并非只有这个问题阻碍了我们实现完全的人类水平的人工智能。 我们今天无法构建人工智能,因为我们缺乏关键的想法(计算机可能也太慢了,但我们无法确定)。强大的想法是由顶尖人才产生的。庞大的集群有帮助,而且非常值得拥有,但它们的作用不那么重要。 我们能够在未来6到9个月内取得一个通常意义上的重大成果,仅仅因为我们已经拥有的人才非常优秀。取得一个改变领域的结果将更加困难、风险更大、耗时更长。但我们也有一个不无道理的计划。
双周更新
3封电子邮件
发件人:伊利亚·苏茨克维 <已编辑>
日期:2017年6月12日星期一晚上10:39
收件人:格雷格·布罗克曼 <已编辑>,<已编辑>,埃隆·马斯克 <已编辑>这是我们第一次双周更新。目标是让你们了解最新情况,并帮助我们更好地利用你们的访问。
计算:
计算有两种使用方式:一种是用来快速运行一个大型实验,另一种是用来并行运行许多实验。 95%的进展来自于快速运行大型实验的能力。运行许多实验的效用要小得多。 在过去,一个大型集群可以帮助你运行更多的实验,但它不能帮助你快速运行一个大型实验。 出于这个原因,一个学术实验室可以与谷歌竞争,因为谷歌唯一的优势是能够运行许多实验。这不是一个很大的优势。 最近,已经有可能将100个GPU和100个CPU组合起来运行一个比单机上可能的大100倍的实验,同时需要相当的时间。由于许多不同小组的工作,这已经成为可能。因此,具有竞争力的最低必要集群现在比以前大10-100倍。 目前,每个Dota实验都使用1000多个核心,而且这只是针对小型1v1变体,以及非常小的神经网络策略。我们需要更多的计算才能赢得1v1变体。要赢得完整的5v5比赛,我们需要运行更少的实验,其中每个实验至少大一个数量级(可能更多!)。 总结:重要的是我们实验的规模和速度。在过去,一个大型集群不能让任何人快速运行一个更大的实验。今天,一个大型集群让我们运行一个大型实验的速度提高了100倍。 为了能够在理论上完成我们的项目,我们需要在未来1-2个月内将我们的GPU数量增加10倍(我们有足够的CPU)。我们将在我们的面对面会议中讨论具体细节。 Dota 2:
我们将在1个月内解决该游戏的1v1版本。游戏迷们相当关心1v1。 我们现在正处于单个实验消耗1000多个核心的地步,并且添加更多分布式计算可以提高性能。 这里有一个很酷的视频,我们的机器人做了一些相当聪明的事情:https://www.youtube.com/watch?v=Y-vxbREX5ck&feature=youtu.be&t=99。 快速学习新游戏:
基础设施工作正在进行中 我们实施了几个基线 从根本上说,我们还没有达到我们想要的状态,并且正在采取行动来纠正这一点。 机器人技术:
当前状态:HER算法(https://www.youtube.com/watch?v=Dz_HuzgMzxo)可以非常快速地学会解决许多以前无法解决的低维机器人任务。它是非显而易见的、简单的和有效的。 在6个月内,我们将完成以下至少一项:单手魔方,转笔(https://www.youtube.com/watch?v=dDavyRnEPrI),转中国球(https://www.youtube.com/watch?v=M9N1duIl4Fc),使用HER算法和sim2real方法[例如https://blog.openai.com/spam-detection-in-the-physical-world/]。 以上将在机械手上部署:[谷歌云端硬盘链接][此视频是人工控制的,不是算法控制的。需要登录到OpenAI账户才能查看视频]。 自博弈是通往AGI的关键途径:
多智能体环境中的自博弈是神奇的:如果你将智能体放置到一个环境中,那么无论它们有多聪明(或不聪明),环境都将为它们提供确切的挑战级别,只有通过智胜竞争才能面对。因此,例如,如果你有一群孩子,他们会发现彼此的公司具有挑战性;同样,对于具有相当智力的超级智能的集合也是如此。因此,自博弈的“解决方案”是变得越来越聪明,没有界限。 自博弈让我们“无中生有”。竞争性游戏的规则可以很简单,但玩这个游戏的最佳策略可能非常复杂。[激励示例:https://www.youtube.com/watch?v=u2T77mQmJYI]。 在模拟中训练智能体通过竞争性战斗(如摔跤)发展出非常好的灵活性。这是一个我们训练成挣扎的蚂蚁形机器人的视频:<已编辑> 目前关于自博弈的工作:让智能体学会开发一种语言[https://blog.openai.com/learning-to-cooperate-compete-and-communicate/中的gif]。智能体正在做“事情”,但这仍然是一项正在进行的工作。 我们还有一些更酷的小型项目。更新将在它们产生重大结果时呈现。
发件人:埃隆·马斯克 <已编辑>
日期:2017年6月12日星期一晚上10:52
收件人:伊利亚·苏茨克维 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>,<已编辑>谢谢,这是一个很好的更新。
发件人:埃隆·马斯克 <已编辑>
日期:2017年6月13日星期二上午10:24
收件人:伊利亚·苏茨克维 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>,<已编辑>好的。让我们找出确保计算能力不受限制的最便宜的方法……
构建AGI的业务
发件人:伊利亚·苏茨克维 <已编辑>
日期:2017年7月12日星期三下午1:36
收件人:埃隆·马斯克 <已编辑>,格雷格·布罗克曼 <已编辑>我们通常认为问题很难,因为聪明的人长期以来一直在研究它们,但没有成功。很容易认为人工智能就是这样。然而,过去五年的进展表明,关于人工智能的最早和最简单的想法——神经网络——一直是正确的,我们需要现代硬件才能让它们工作。
历史上,人工智能的突破始终发生在需要7-10天训练的模型上。这意味着硬件定义了潜在人工智能突破的表面。这是关于人类心理学的陈述,而不是关于人工智能的陈述。如果实验时间超过这个时间,就很难记住所有状态并进行迭代和改进。如果实验时间较短,你只会使用更大的模型。
这并不是说人工智能的进步是一场硬件游戏,就像物理学是一场粒子加速器游戏一样。但是,如果我们的计算机太慢,再多的聪明才智也无法产生AGI,就像如果粒子加速器太小,我们就无法弄清楚宇宙是如何运作的一样。足够快的计算机是一个必要的组成部分,所有过去的失败都可能是由于计算机对于AGI来说太慢了。
直到最近,还没有办法使用许多GPU一起来运行更快的实验,因此学术界与工业界具有相同的“有效计算”。但今年早些时候,谷歌使用了比通常多两个数量级的计算来优化分类器的架构,这通常需要大量的研究人员时间。几个月前,Facebook发布了一篇论文,展示了如何在具有高达256个GPU的近线性加速的情况下训练一个大型ImageNet模型(给定一个具有高带宽互连的特殊配置的集群)。
在过去的一年里,谷歌大脑取得了令人印象深刻的成果,因为他们拥有的GPU数量比任何人都多一个或两个数量级。我们估计Brain拥有大约10万个GPU,FAIR拥有大约1.5-2万个GPU,DeepMind为每个研究人员分配了50个GPU用于提问,并从Brain租用了5千个GPU用于AlphaGo。显然,当人们在谷歌大脑运行神经网络时,它会耗尽DeepMind所有人的配额。
我们仍然缺少构建AGI所需的几个关键想法。我们如何利用系统对“事物A”的理解来学习“事物B”(例如,我能教一个系统计数,然后乘法,然后解决应用题吗)?我们如何构建好奇的系统?我们如何训练一个系统来发现所有类型现象的深层原因——充当科学家?我们如何构建一个适应新情况的系统,而它没有在这些情况下进行过精确的训练(例如,被要求在不熟悉的情况下应用熟悉的概念)?但是,如果有足够的硬件来运行7-10天的相关实验,历史表明将会找到正确的算法,就像物理学家如果有一个足够大的粒子加速器,就会很快弄清楚宇宙是如何运作的一样。
有充分的理由相信,深度学习硬件将在未来四到五年内每年加速10倍。世界已经习惯了摩尔定律相对悠闲的步伐,并没有为这种硬件加速将带来的能力的 drastic 变化做好准备。这种加速将不会因为更小的晶体管或更快的时钟周期而发生;它将发生,因为像大脑一样,神经网络本质上是可并行化的,并且正在构建新的高度并行硬件来利用这一点。
在未来三年内,机器人技术应该得到彻底解决,人工智能应该解决一个长期未解决的定理,编程竞赛应该持续由人工智能赢得,并且应该有令人信服的聊天机器人(尽管没有人应该通过图灵测试)。在短短四年内,每次隔夜实验都将可能使用如此多的计算能力,以至于在正确的算法下,实际上有可能在醒来时看到AGI——并且在通过竞争性多智能体模拟进行2-4年的实验后,实际上会找出该算法。
为了从事构建安全AGI的业务,OpenAI需要:
每年都有最好的人工智能成果。特别是,随着硬件呈指数级增长,我们将取得显著更好的成果。我们的DOTA和魔方项目将在当前的计算水平上取得令人印象深刻的成果。明年的项目将更加极端,现实情况主要取决于我们能够访问的计算资源。 尽快将我们的GPU集群从600个GPU增加到5000个GPU。作为上限,这将需要在未来一年内花费1200万美元的资本支出和5-600万美元的运营支出。每年,我们都需要成倍增加我们的硬件支出,但我们有理由相信,最终可以用不到100亿美元的硬件构建AGI。 增加我们的员工人数:从55人(2017年7月)到80人(2018年1月)到120人(2019年1月)到200人(2020年1月)。我们已经学会了如何组织我们当前的团队,我们现在受到尝试想法的聪明人数量的限制。 锁定压倒性的硬件优势。<已编辑>说他可以在2年内制造的4芯片卡实际上是TPU 3.0,并且(如果有足够的数量)将使我们在计算方面几乎与谷歌处于同等地位。Cerebras的设计远远领先于这两者,如果它们是真的,那么拥有对它们的独家访问权将使我们远远领先于竞争对手。我们有一个结构性的想法,如何在进行更多尽职调查的情况下做到这一点,最好在电话中讨论。2/3/4最终将需要大量资金。如果我们能够获得资金,我们就有真正的机会设定AGI诞生的初始条件。不断增加的资金需求将与不断增加的结果规模同步。我们应该讨论获得相关资金的选择,因为这是我们直接控制之外的最大一块。 本周的进展:
我们已经击败了我们最好的1v1测试玩家(他在北美1v1中排名前30,并且在大约30%的时间里击败了最好的1v1玩家),但是机器人也可以通过奇怪的玩法被利用。我们正在努力了解这些漏洞并对其进行打击。
从周六重复,这是我们击败我们顶级测试玩家的第一场比赛:https://www.youtube.com/watch?v=FBoUHay7XBI&feature=youtu.be&t=345 每增加一天的训练都会使机器人更强大,更难被利用。 机器人越来越接近解决魔方。
由人类远程操作的改进的立方体模拟:<已编辑>。 我们针对对抗性示例的防御开始在ImageNet上起作用。
我们将在8月底彻底解决对抗性示例的问题。
2017年夏天:我们和埃隆都同意,营利性公司是OpenAI推进其使命的下一步
2017年7月13日,格雷格向希冯·齐利斯发送了一份备忘录,后者当时担任埃隆和OpenAI之间的联络人,总结了当天与埃隆会面的要点,我们在会上提出了与一家硬件初创公司合并的想法,称它“变成了关于结构的讨论(他说非营利组织在一开始绝对是正确的,现在可能不是正确的——伊利亚和我都同意这一点,原因有很多)。”

7/13/17 10:35 PM
进展如何?7/13/17 10:35 PM
进展顺利!海洋:同意在国际比赛前后宣布;他建议与获胜队伍的最佳选手比赛,这对我来说似乎很酷。我让他给 <已编辑> 打电话,他说他会打。我认为这比我们默认的提前宣布我们已经击败了最好的 1v1 选手,然后在 TI 的终端上让我们的机器人可玩要好。GPU:说做我们需要做的
Cerebras:我们谈了一点反向合并的想法。独立于 Cerebras,变成了关于结构的讨论(他说非营利组织在一开始绝对是正确的,现在可能不是正确的——伊利亚和我都同意这一点,原因有很多)。他说他要去太阳谷让 <已编辑> 捐款。7/13/17 10:43 PM
<已编辑> 和其他人。将尝试为你解决。格雷格·布罗克曼(蓝色/右)和希冯·齐利斯(灰色/左)之间的 iMessage 对话
2017年7月21日,埃隆转发了一篇关于中国计划在2020年前在人工智能研究设施方面赶上美国并在2030年前成为人工智能领域的世界领先者的文章,以支持农业和制造业以及国土安全和监控工作。埃隆说:“他们将不惜一切代价获得我们开发的东西。也许是改变方向的另一个原因。”
格雷格表示同意,称从2018年开始,这条道路将需要成为“人工智能研究+硬件营利性公司”。埃隆回应说:“周六或周日谈。我有一个初步的游戏计划,我想和你商量一下。”
北京希望到2030年实现人工智能的中国制造 – NYTimes.com
发件人:埃隆·马斯克 <已编辑>
日期:2017年7月21日星期五凌晨3:34
收件人:格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维 <已编辑>他们将不惜一切代价获得我们开发的东西。也许是改变方向的另一个原因。
[链接到新闻文章]
发件人:格雷格·布罗克曼 <已编辑>
日期:2017年7月21日星期五下午1:18
收件人:埃隆·马斯克 <已编辑>
抄送:伊利亚·苏茨克维 <已编辑>100%同意。我们认为这条道路必须是:
人工智能研究非营利组织(截至2017年底)
人工智能研究+硬件营利性公司(从2018年开始)
政府项目(何时:??)-gdb
发件人:埃隆·马斯克 <已编辑>
日期:2017年7月21日星期五下午1:18
收件人:格雷格·布罗克曼 <已编辑>
抄送:伊利亚·苏茨克维 <已编辑>,<已编辑>周六或周日谈。我有一个初步的游戏计划,我想和你商量一下。
2017年8月11日,我们的AI在Dota 1v1中击败了世界上最好的选手。那天晚上,埃隆告诉我们“是时候为OpenAI迈出下一步了。这是触发事件。”
明天下午
发件人:埃隆·马斯克 <已编辑>
日期:2017年8月11日星期五晚上9:17
收件人:格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维 <已编辑>,山姆·奥特曼 <已编辑>
抄送:<已编辑>,希冯·齐利斯 <已编辑>你们明天下午能见面还是开个电话会议?
是时候为OpenAI迈出下一步了。这是触发事件。
2017年秋天:埃隆要求获得多数股权、绝对控制权,并担任营利性公司的首席执行官。
在接下来的六周里,我们协商了营利性公司的条款。
埃隆要求获得多数股权。2017年9月4日,希冯在给格雷格的一条消息中写道:“而且他在自己的股权在50-60之间听起来相当没有商量的余地,所以拥有多数股权没有意义”。在一次电话中,埃隆告诉我们,他个人并不关心股权,只是需要积累800亿美元用于在火星上建造一座城市。

9/4/17 8:19 PM
实际上,我对围绕股票百分比和董事会控制权提出的细节仍然有点困惑
鉴于听起来提议是埃隆总是获得最大值(3个席位,25%的席位),并且所有权力都归董事会所有
是的。虽然我猜他打算对第一部分使用你的否决条款,但我不确定
那么拥有一定百分比的股份有什么权力呢?听起来意图是静态的董事会成员,或者至少是静态地来自某些池的董事会成员
但是,是的,很想知道具体细节。另外,我想对于偶数董事会规模,50%是否意味着没有行动?我认为它会很快增长到至少7个。问题不是那个,而是什么时候过渡到传统的董事会,如果事实上过渡的话
而且他在自己的股权在50-60之间听起来相当没有商量的余地,所以拥有多数股权没有意义格雷格·布罗克曼(蓝色/右)和希冯·齐利斯(灰色/左)之间的 iMessage 对话
2017年9月12日,埃隆提出了一个董事会结构,他将“明确地拥有公司的初始控制权”。
关于:当前状态发件人:埃隆·马斯克 <已编辑>
日期:2017年9月13日星期三凌晨12:40
收件人:伊利亚·苏茨克维 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>
听起来不错。三个普通股席位(你、格雷格和山姆)应该由普通股股东选举。它们实际上将是你们的,但不太可能随着时间的推移失去大多数普通股股东的信任或自愿离开公司。我认为A轮优先股投资(超级多数我)应该有权任命四个(不是三个)席位。我不会指望立即任命他们,但是,就像我说的,我将明确地拥有公司的初始控制权,但这将很快改变。
粗略的目标是达到一个12人的董事会(如果这个董事会真的最终决定世界的命运,可能会更多,比如16人),每个董事会成员都对技术有深刻的理解,至少对人工智能有基本的了解,并且有强烈而明智的道德观。
除了A轮的四个席位和普通股的三个席位之外,每个新的主要投资者/盟友都可能会有一名董事会成员。但是,只有在除一名现有董事会成员之外的所有人都同意的情况下,才能添加特定的新董事会成员。删除董事会成员也是如此。
我们还想添加一些与投资者无关的独立董事会成员。同样的规则适用:需要除一名现有董事之外的所有人才能添加或删除。
我非常累了,不想把事情复杂化,但这似乎大致正确。在16人的董事会层面,我们将拥有7/16的选票,我将拥有25%的影响力,这是我的最低舒适水平。这对我来说听起来差不多。如果我们邀请加入我们董事会的所有其他人真的反对我们,我们可能应该输。
如前所述,我对董事会(假设他们由优秀、聪明的人组成)的经验是,他们是理性和合理的。基本上从来没有一场真正的硬仗,个人董事会投票是至关重要的,所以这几乎可以肯定(希望如此)将是一个没有意义的点。
最后,我对你们在股权和董事会方面讨论的质量印象深刻。我对这件事有非常好的感觉。
如果以上看起来合理,请告诉我。
埃隆
埃隆还告诉我们,他需要担任首席执行官。
2017年9月:埃隆创建了名为“开放人工智能技术公司”的公益公司
埃隆指示他的财富经理贾里德·伯查尔创建了名为“开放人工智能技术公司”的公益公司(类似于SpaceX的官方名称“太空探索技术公司”)。它于2017年9月15日注册:
开放人工智能技术公司实体注册

埃隆·马斯克于2017年9月15日创建的公益公司,作为OpenAI的拟议未来结构。
特许经营税报告

2017年9月:我们拒绝了埃隆的条件,因为让他单方面控制OpenAI及其技术将违背我们的使命。
我们差点接受了埃隆的条件。正如我们告诉他的,“我们真的想和你一起工作。我们相信,如果我们联手,我们在使命中成功的机会是最大的。”
然而,我们认为他的提议与使命不符,称:“目前的结构为你提供了一条最终单方面绝对控制AGI的途径。你声明你不希望控制最终的AGI,但在这次谈判中,你向我们表明,绝对控制对你来说非常重要。”正如我们告诉埃隆的,“OpenAI的目标是让未来变得美好,并避免AGI独裁。”
我们总结道:“因此,我们担心,随着公司在AGI方面取得真正的进展,你将选择保留对公司的绝对控制权,尽管目前的意图并非如此。”
诚实的想法
4封电子邮件
发件人:伊利亚·苏茨克维 <已编辑>
日期:2017年9月20日星期三下午2:08
收件人:埃隆·马斯克 <已编辑>,山姆·奥特曼 <已编辑>,格雷格·布罗克曼 <已编辑>埃隆,山姆,
这个过程是格雷格和我参与过的最高风险的对话,如果项目成功,它将成为世界上最高风险的对话。这对我们所有人来说也是一次非常私人的对话。
昨天,当我们考虑做出最终承诺(甚至是禁止招揽协议)时,我们意识到我们犯了一个错误。我们有几个重要的担忧,我们没有向你们中的任何一个人提出。我们没有提出它们,因为我们害怕:我们害怕损害关系,让你们看不起我们,或者失去你们作为合作伙伴。
我们的担忧有可能被证明是无法解决的。我们真的希望情况并非如此,但我们知道,如果我们现在不讨论它们,我们肯定会失败。我们希望我们能够解决所有问题并继续合作。
埃隆
我们真的想和你一起工作。我们相信,如果我们联手,我们在使命中成功的机会是最大的。我们的上升空间是最大的。这是毫无疑问的。我们与你合作的愿望如此之大,以至于我们很高兴放弃股权、个人控制权,让自己容易被解雇——无论需要做什么才能与你合作。但我们意识到,我们对控制对世界的影响的思考是粗心的。因为它看起来如此狂妄,我们没有认真考虑成功的含义。
目前的结构为你提供了一条最终单方面绝对控制AGI的途径。你声明你不希望控制最终的AGI,但在这次谈判中,你向我们表明,绝对控制对你来说非常重要。
例如,你说你需要担任新公司的首席执行官,这样每个人都会知道你是负责人,尽管你也声明你讨厌担任首席执行官,并且宁愿不担任首席执行官。 因此,我们担心,随着公司在AGI方面取得真正的进展,你将选择保留对公司的绝对控制权,尽管目前的意图并非如此。我们不同意你的说法,即我们离开的能力是我们最大的力量,因为一旦公司实际上走上了通往AGI的轨道,公司将比任何个人都重要得多。 OpenAI的目标是让未来变得美好,并避免AGI独裁。你担心德米斯可能会建立一个AGI独裁政权。我们也担心。因此,创建一个你可能成为独裁者的结构是一个坏主意,特别是考虑到我们可以创建一些避免这种可能性的其他结构。 我们还有一些较小的担忧,但我们认为在这里提及它们是有用的:
如果我们决定购买Cerebras,我的强烈感觉是,这将通过特斯拉完成。但是,如果我们可以从OpenAI内部完成它,为什么还要这样做呢?具体来说,人们担心特斯拉有义务为股东实现股东回报最大化,这与OpenAI的使命不一致。因此,总体结果可能最终对OpenAI来说不是最佳的。 我们相信,非营利组织OpenAI之所以成功,是因为你和山姆都在其中。山姆对你起到了真正的制衡作用,这非常有成效。至少到目前为止,格雷格和我都不太擅长成为对你的制衡。我们认为,即使是这次谈判也证明这一点,我们准备把长期的AGI控制问题扫到地毯下,而山姆坚持自己的立场。 山姆:
当格雷格和我陷入困境时,你总能找到一个深刻而正确的答案。你一直在非常深入和彻底地思考这个问题的解决方法。格雷格和我理解技术执行,但我们不知道结构决策在下个月、一年或五年内将如何发挥作用。但在整个过程中,我们一直无法完全信任你的判断,因为我们不了解你的成本函数。
我们不明白为什么首席执行官的头衔对你如此重要。你陈述的理由已经改变,很难真正理解是什么在驱动它。 AGI真的是你的主要动机吗?它与你的政治目标有何联系?你的思维过程是如何随着时间推移而改变的? 格雷格和伊利亚:
在这次谈判中,我们也有自己的失败之处,我们将在此列出其中一些(埃隆和山姆,我相信你们会有很多补充……):
在这次谈判中,我们意识到,我们已经让2-3年后的财务回报的想法驱使我们的决定。这就是为什么我们没有在控制权上施加压力——我们认为我们的股权足够好了,所以为什么要担心呢?但这种态度是错误的,就像那些不认为人工智能安全是一个问题的人工智能专家的态度一样,因为他们并不真的相信他们会构建AGI。我们在谈判中没有说出我们的全部真相。我们有我们的借口,但它损害了这个过程,我们可能会因此失去山姆和埃隆。这里有足够的包袱,我们认为我们见面并解决问题非常重要。如果我们不这样做,我们的合作将不会成功。我们四个人今天能见面吗?如果我们所有人都说出真相,并解决问题,我们创建的公司将更有可能经受住它将经历的非常强大的力量。
格雷格和伊利亚
发件人:埃隆·马斯克 <已编辑>
日期:2017年9月20日星期三下午2:17
收件人:伊利亚·苏茨克维 <已编辑>
抄送:山姆·奥特曼 <已编辑>,格雷格·布罗克曼 <已编辑>,<已编辑>,希冯·齐利斯 <已编辑>
伙计们,我受够了。这是最后一根稻草。要么你们自己去做点什么,要么继续把OpenAI作为一个非营利组织。在你们做出坚定的留下来的承诺之前,我不会再资助OpenAI,否则我就成了一个傻瓜,基本上是在免费资助你们创建一家初创公司。
讨论结束了。
发件人:埃隆·马斯克 <已编辑>
日期:2017年9月20日星期三下午2:17
收件人:伊利亚·苏茨克维 <已编辑>
抄送:山姆·奥特曼 <已编辑>,格雷格·布罗克曼 <已编辑>,<已编辑>,希冯·齐利斯 <已编辑>需要明确的是,这不是接受之前讨论的内容的最后通牒。那已经不可能了。
发件人:山姆·奥特曼 <已编辑>
日期:2017年9月20日星期三下午2:17
收件人:埃隆·马斯克 <已编辑>,伊利亚·苏茨克维 <已编辑>
抄送:格雷格·布罗克曼 <已编辑>,<已编辑>,希冯·齐利斯 <已编辑>我对非营利组织结构仍然充满热情!
埃隆回复说:“讨论结束了”和“需要明确的是,这不是接受之前讨论的内容的最后通牒。那已经不可能了。”
2018年1月:埃隆表示,除非我们并入特斯拉,否则OpenAI注定会失败。
谈判破裂后,埃隆提议我们将公司并入特斯拉。我们将立即获得10亿美元的预算,而且预算将从那里开始呈指数级增长。
然而,我们的团队不想在特斯拉工作。我们在接下来的几个月里试图找到另一种方式来筹集实现使命所需的资金。
2018年1月31日,埃隆告诉我们:“相对于谷歌,OpenAI正走在一条注定失败的道路上。显然需要立即采取戏剧性的行动,否则除了谷歌之外的所有人都将被归于无关紧要。”
格雷格告诉他:“我的观点是,最好的未来将来自OpenAI的重大扩张。我们的目标和使命从根本上是正确的,随着AGI的临近,这将越来越成为一种超级力量。”
转发:当今顶级人工智能机构发件人:埃隆·马斯克 <已编辑>
日期:2018年1月31日星期三下午2:02
收件人:格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维 <已编辑>,山姆·奥特曼 <已编辑>
抄送:<已编辑> <已编辑>,希冯·齐利斯 <已编辑>相对于谷歌,OpenAI正走在一条注定失败的道路上。显然需要立即采取戏剧性的行动,否则除了谷歌之外的所有人都将被归于无关紧要。
我考虑过ICO的方法,不会支持它。在我看来,那只会导致OpenAI和与ICO相关的每个人信誉的巨大损失。如果某件事好得令人难以置信,那就是真的。在我看来,这是一个不明智的转移。
我能想到的唯一途径是OpenAI的重大扩张和特斯拉人工智能的重大扩张。也许两者同时进行。前者需要大幅增加捐赠资金,并有非常可靠的人加入我们的董事会。目前的董事会情况非常薄弱。
我将安排时间让我们明天谈谈。需要明确的是,我非常尊重你们的能力和成就,但我不满意事情的管理方式。这就是为什么最近几个月我很难参与OpenAI的原因。要么我们解决问题,我的参与度大大提高,要么我们不这样做,我将降至接近于零,并公开减少我的关联。我不会处于一种我的影响力和时间的看法与现实不符的情况。
发件人:格雷格·布罗克曼 <已编辑>
日期:2018年1月31日星期三晚上10:56
收件人:埃隆·马斯克 <已编辑>
抄送:伊利亚·苏茨克维 <已编辑>,山姆·奥特曼 <已编辑>,<已编辑>,希冯·齐利斯 <已编辑>嗨,埃隆,
感谢你周到的来信。我一直对你对大局的关注印象深刻,并且完全同意我们必须改变轨迹才能实现我们的目标。我们明天谈谈,下午4点或之后的时间都可以。
我的观点是,最好的未来将来自OpenAI的重大扩张。我们的目标和使命从根本上是正确的,随着AGI的临近,这将越来越成为一种超级力量。
筹款
我们的筹款对话表明:
伊利亚和我能够说服有声望的人相信AGI真的会在未来≤10年内发生 那些人有捐赠的意愿 那些人有非常大的投资意愿 我尊重你对ICO想法的决定,这与我们自己想法的演变相符。山姆·奥特曼一直在研究一种不依赖公开发行的筹款结构,我们很想听听你的反馈。
在我们一直在交谈的人中,以下人员目前是我对董事会成员的首要建议。也欢迎你提出不在此列表中的首选建议,我们可以弄清楚如何接触他们。
<已编辑> <已编辑> <已编辑> <已编辑> <已编辑> <已编辑> 未来3年在未来3年内,我们必须构建3件事:
定制人工智能硬件(例如 <已编辑> 计算机) 大型人工智能数据中心(可能需要多次更新) 最佳软件团队,在算法开发、公开演示和安全之间进行混合 我们谈论最多的是定制人工智能硬件和人工智能数据中心。在软件方面,我们有一条可靠的途径(竞争性多智能体环境中的自博弈),这已被Dota和AlphaGo验证。我们还确定了当今深度学习中存在少量但有限的限制,这些限制是学习人类水平经验的障碍。我们相信,我们独特地走上了在未来三年内解决安全性(至少是大体上)的轨道。我们希望以这种方式扩大员工人数:
2017年初:约40人 2018年底:100人 2019年底:300人 2020年底:900人 道德制高点我们最大的工具是道德制高点。为了保持这一点,我们必须:
尽最大努力保持非营利组织。人工智能将撼动社会结构,我们的信托责任应该是对人类。 加大对安全/控制问题的投入,而不是你在其他机构中注意到的遮羞布。如果每个人都死了,谁赢了都没关系。与此相关的是,我们需要传达“宁愿红也不愿死”的观点——我们正在努力构建安全的AGI,我们不愿意在争分夺秒的竞赛中毁灭世界。 与政府合作,提供可信、公正的政策建议——我们经常听到他们不信任来自等公司的建议。 被视为向研究界提供公共利益的场所,并通过以身作则让其他参与者保持诚实和开放。 过去2年我很想听听你如何评价我们在过去两年中相对于资源的执行情况。在我看来:
在过去五年中,有两个主要的有效系统演示:AlphaZero [DeepMind]和Dota 1v1 [OpenAI]。(从业者中流行的“能力”突破数量更多,我认为其中最重要的是:ProgressiveGAN [NVIDIA]、无监督翻译 [Facebook]、WaveNet [DeepMind]、Atari/DQN [DeepMind]、机器翻译 [伊利亚在谷歌——现在在OpenAI]、生成对抗网络 [伊恩·古德费洛在研究生院——现在在谷歌]、变分自编码器 [德克在研究生院——现在在OpenAI]、AlexNet [伊利亚在研究生院——现在在OpenAI]。)我们在这个轴上表现良好。 我们在2016年增长非常迅速,并在2017年迭代到一个有效的管理结构。在资源充足的情况下,我们现在已经准备好大规模扩张。我们目前因薪酬而失去人才,但几乎只因薪酬而失去人才。我一直在恢复我在早期所做的招聘方式,并相信我可以超越那些结果。 我们拥有该领域人才最密集的团队,我们也有这方面的声誉。 我们不鼓励写论文,因此论文接受率不是我们优化的指标。对于安德烈发送的ICLR图表,我预计我们的(接受的论文)/(提交论文的人数)将是该领域中最高的。
gdb
埃隆很快决定辞去OpenAI的职务。
2018年2月:埃隆辞去OpenAI联合主席的职务
2018年2月20日,埃隆与团队举行了告别全体会议。他说我们应该追求我们看到的每年筹集数十亿美元的道路。他说他将在特斯拉追求先进的人工智能研究,这是他认为唯一能够获得这种资金水平的载体。
2018年12月:埃隆告诉我们,要“立即每年筹集数十亿美元,否则就别想了”
2018年12月17日,我们向埃隆发送了一份关于我们进展的更新,并告诉他“一项将我们的计算从谷歌转移到微软(除了我们自己的数据中心之外)的交易”。我们还提出讨论长期筹款计划。他回应说:“听起来不错”。
关于:OpenAI更新––––– 转发邮件 –––––
发件人:埃隆·马斯克 <已编辑>
日期:2018年12月17日星期一下午3:47
收件人:山姆·奥特曼 <已编辑>听起来不错
可能周三晚上在旧金山见面
2018年12月17日下午3:42,山姆·奥特曼 <已编辑> 写道:
嘿,埃隆–
在明年第一季度,我们计划与任何想参加大型现金奖励的职业团队进行一场不受限制的最终Dota锦标赛。之后,我们将宣布无模型强化学习完成,一部分团队将致力于使用基于模型的强化学习重新解决1v1 Dota。
我们还计划在第一季度发布一些机械手演示——魔方、转笔和中国球旋转。新任务的学习速度应该非常快。今年晚些时候,我们将尝试将两只手安装在两只手臂上,看看会发生什么……
我们在语言方面也取得了快速进展。我希望明年我们能够生成短篇故事和一个好的对话机器人。
希望我们可以使用这种无监督学习来构建能够做困难事情的模型,例如永远不会犯人类不会犯的图像分类错误,这对我来说意味着某种程度的概念理解。
我们还在多智能体环境中取得了良好的进展,多个智能体现在正在协作构建简单的结构、玩激光标签等。
最后,我正在努力达成一项将我们的计算从谷歌转移到微软(除了我们自己的数据中心之外)的交易。
也很高兴讨论筹款(即使积极增长,我们也应该有足够的资金用于未来约2年)和不断发展的硬件想法(如果有帮助的话),希望不要把这些放在电子邮件中,但也许下次你在Pioneer时?
山姆
2018年12月26日,埃隆发送了一封电子邮件,称“即使筹集到数亿美元也不够。这需要立即每年筹集数十亿美元,否则就别想了。”
我觉得我应该重申一下发件人:埃隆·马斯克 <已编辑>
日期:2018年12月26日星期三中午12:07
收件人:伊利亚·苏茨克维 <已编辑>,格雷格·布罗克曼 <已编辑>
抄送:山姆·奥特曼 <已编辑>,希冯·齐利斯 <已编辑>
我认为,如果没有执行和资源的巨大变化,OpenAI与DeepMind/谷歌相关的可能性为0%。不是1%。我希望情况并非如此。即使筹集到数亿美元也不够。这需要立即每年筹集数十亿美元,否则就别想了。
不幸的是,人类的未来掌握在 <已编辑> 手中。[链接到文章]
OpenAI让我想起了贝佐斯和蓝色起源。他们无可救药地落后于SpaceX并且越来越糟,但贝佐斯的自负让他疯狂地认为他们没有!
我真的希望我错了。埃隆
2019年3月:公开宣布由非营利组织管理的、有利润上限的OpenAI LP
我们向埃隆发送了我们OpenAI LP公告博文的预发副本。埃隆唯一的反馈是:“请明确表示我对OpenAI的营利性部门没有经济利益。”
多年来,我们多次向埃隆提供OpenAI LP的股权,但他都拒绝了。
10/23/22 8:07 AM
从埃隆那里得到了这个,你有什么建议:你过去曾向他提供过股票,但他当时拒绝了,对吧?我不知道他说的A轮和B轮是什么意思
目前还不清楚这里实际的问题是什么。没有股票,它仍然是公众认为他最初资助的同一个实体(OpenAI名称),或者只是对方向的分歧
当时向他提供了,但他拒绝了。我不记得当时决定了什么实际的途径。我没记错的话,我想你曾在某个时候直接问过他?如果你想了解更多背景信息,请致电,但总的建议是不要立即回复短信
10/23/22 9:13 PM
如果你有时间,请快速阅读一下?我同意这感觉很糟糕——我们在建立上限利润时向你提供了股权,你当时不想要,但如果你愿意,我们仍然非常乐意这样做。鉴于我们需要大量资金,并且仍然需要一种“将AGI交给人类”的方式,除了上限利润之外,我们别无选择,只能改变结构,这也让董事会在安全需要时取消所有股权。
顺便说一句,我个人没有任何股权,也从来没有。我正在努力走好棘手的钢丝,并希望随时与你讨论如何才能做得更好。也很想向你展示最近的更新。10/23/22 10:50 PM
(我发送了)
收到了这个回复:我这周的大部分时间都会在旧金山进行推特收购。周二或周三谈。抱歉睡着了!漫长的几天。太好了山姆·奥特曼(蓝色/右)和希冯·齐利斯(灰色/左)之间的 iMessage 对话
2023年3月:埃隆创立了他的OpenAI竞争对手xAI
2023年3月9日,埃隆成立了xAI——一家公益公司,它是OpenAI的直接竞争对手。
xAI内华达州注册

2023年3月22日,埃隆共同签署了一封公开信,呼吁暂停训练比GPT-4更强大的系统。由于当时只有OpenAI拥有GPT-4级别的系统,因此这实际上是呼吁只有OpenAI停止开发。
(文:AI信息Gap)