3万字全文翻译,被披露的不只是内斗。
文丨贺乾明翻译、校对丨GPT-4o、Claude-3.5-Sonnet、贺乾明编辑丨黄俊杰
这些长达3万多字的内部记录也像是一堂OpenAI出品的创业课,涉及这家全球最大的AI创业公司早期如何讲故事、组建精英阵容,到薪酬设计、股权分配的方方面面;从低价与Google争夺人才到与微软谈判合作,甚至还包括曾考虑过的加密货币融资方案。而且,我们还能看到首席科学家伊利亚·苏茨克维(IlyaSutskever)如何写双周报,制定AGI研究计划,以及阿尔特曼如何一步步控制OpenAI,推动转型的过程。
2015年:邀约马斯克-从YCAI到OpenAI-初始团队
问题
参与者:
山姆·阿尔特曼(SamAltman),2014年接任硅谷孵化器YC总裁,2019年全职担任OpenAICEO。
埃隆·马斯克(ElonMusk),时任特斯拉、SpaceXCEO,为OpenAI出资4000多万美元,2018年2月退出OpenAI董事会。
我一直在思考,是否有可能阻止人类开发AI。
我认为几乎不可能。
既然它迟早会发生,最好是让Google之外的其他人先做这件事。
你觉得YC启动一个类似曼哈顿计划的AI项目怎么样?我觉得我们可以让排名前50的顶级人才中的很多人参与其中。我们可以设定一个架构,让这项技术通过某种形式的非营利机构属于全世界。如果项目成功,参与其中的人能获得类似加入创业公司的报酬。当然,我们会遵守并积极支持所有的监管规定。
山姆
这可能值得进一步讨论。
我们的使命是,创造用于增强个人的能力的第一个通用人工智能(AGI)——即那个未来看起来最安全的分布式版本。更宽泛地说,安全应当是我们的首要追求。
我觉得,理想的启动团队是7到10人,然后逐步扩大。我们在山景城有一栋空余的建筑,他们可以用。
至于治理架构,我建议从5个人开始,我提议你、比尔·盖茨、皮埃尔·奥米迪亚(eBay创始人)、达斯汀·莫斯科维茨(Facebook联合创始人)和我。技术由基金会拥有,用于“全人类的福祉”。如果遇到不确定如何应用的情况,我们5个人做决定。研究人员有可观的财务回报,但与他们开发的技术无关。这样可以减少一些冲突(我们会付他们有竞争力的薪水,并给他们YC股权)。我们将持续讨论哪些工作成果应该开源,哪些不应该开源。某个时候,我们会找一个人领导团队,但他/她可能不该在治理委员会内。
我觉得关于监管信的正确做法是,等到这项工作启动后,我可以发布一条消息,类似于“既然我们已经开始做这件事了,我最近也在认真思考世界需要什么样的约束来保障安全。”如果你不想签字,我也很乐意把你从签署名单中去掉。我觉得,信发布之后,会有更多人愿意支持它。
我同意所有的提议。
AIdocs
新增参与者:
伊利亚·苏茨克维(IlyaSutskever),Google原资深研究科学家,放弃数百万美元年薪加入OpenAI,担任首席科学家,2023年11月联合OpenAI董事驱逐阿尔特曼,今年5月离职。
埃隆-
我们的计划是让你、我和伊利亚三个人组成YCAI(注:OpenAI早期名称)的董事会,它将是一个位于特拉华州的非营利组织。我们还会描述清楚,由董事会成员选举两位外部人士加入董事会。
我们会在章程中写明,任何可能危害人类安全的技术,必须经过董事会的同意才能发布。我们也会在研究人员的聘用合同中提到这一点。
整体来说,你觉得这个方案怎么样?
我抄送给了我们的法律顾问<****>(OpenAI隐藏的内容,下同),请问你那边是否有人可以跟他对细节?
我认为它应该由YC支持并独立于YC,而不是听起来像YC的一个子公司。
另外,当前的架构似乎不是最理想的。特别是,YC的股权和非营利组织的薪水,会让激励机制变得模糊。更好的做法,可能是设立一个标准的C型公司(注:可以理解为营利公司),并同时设立一个非营利组织。
格雷格·布洛克曼(GregBrockman),硅谷金融科技独角兽Stripe原CTO,后担任OpenAI总裁。
嗨,埃隆
很高兴刚才和你聊了下。
显然,还有很多细节需要修改,但我很好奇你对这样传递信息的看法。我不想避重就轻,如果你觉得合适,我会更直白地传递信息。我认为最重要的是,我们的信息能吸引到做研究的人(或者至少是我们想要招聘的那部分人)。我希望我们能作为一个中立的团队进入这个领域,广泛合作,将对话引导到“人类的胜利”上,而不是某个特定的团队或公司。(我认为这是我们成为领先研究机构的最佳途径。)
我附上了我们一直在用的offer模板,年薪为17.5万美元。以下是我发给候选人的邮件模板:
gdb(注:格雷格·布洛克曼名字的缩写)
博客内容看起来不错,但需要调整为中立视角,不要过于偏向YC。
我倾向于将博客调整为更吸引公众的方向——得到公众的支持对我们的成功非常重要——同时,为招聘准备一个更长、更详细、更加专业的版本,在面向公众的版本结尾附上指向该版本的链接。
我们需要提出一个远大于1亿美元的数字,否则在Google或Facebook的支出面前,我们会显得毫无竞争力。我建议宣布一个10亿美元的资金承诺。这是切实可行的,我会承担其他人未能提供的部分。
模版总体不错,只需将默认奖励调整为分期发放的现金奖金,同时允许转化为YC的股权,或者可能是SpaceX的股权(需要进一步确认具体金额)。
开头段落的草稿
把开头的总结部分写好非常重要。这是大家首先阅读的内容,也是媒体通常会引用的部分。发布它就是为了吸引顶尖人才。我不确定格雷格真的明白这一点。
OpenAI是一家非营利的AI研究公司,目标是以最有可能造福全人类的方式推动数字智能的发展,不受追求财务回报的束缚。
我们公司的基本理念是,尽可能广泛地传播AI技术,将其作为每个人意志的延伸,确保在自由精神的指导下,数字智能的力量不被过度集中,并朝着全人类共同期望的未来演化。
这一项目的结果尚不确定,薪酬也比其他公司低。但我们相信,我们的目标和架构是正确的。我们希望这是最优秀的人才最看重的东西。
这个怎么样?
由于我们没有财务压力,可以专注开发对人类影响最大、影响最积极的AI技术,并尽可能广泛地传播。我们相信AI应该是个人意志的延伸,并且在自由精神的指导下,避免将其集中在少数人手中。
刚刚得到消息...…
刚刚得到消息,DeepMind明天会给OpenAI的每个人提供高价offer,试图打压我们。
你是否介意我主动提高大家的薪酬,每年增加10万到20万美元?我认为他们都受到使命的激励,但加钱会向大家传递一个积极的信号——我们会长期关心并照顾他们。
看起来DeepMind打算开战,他们甚至在NIPS(注:AI领域顶级学术会议)上直接堵人。
伊利亚有没有给出确切的答复?
是的,已经承诺了,刚刚拿到了他的承诺。
太棒了
大家感觉都很好,还在说一些话,类似“尽管让DeepMind报价好了,遗憾的是,他们没有‘坚持做正确的事’的价值观支持”。
OpenAI公司
帕梅拉·瓦加塔(PamelaVagata),Facebook原AI研究工程师,2016年离职
维琪·张(VickiCheung),多邻国、医疗保健公司TrueVault原工程师,2017年底离职
迪亚德里克·金玛(DiederikKingma),当时博士未毕业,2018年离职
安德烈·卡帕西(AndrejKarpathy),当时博士未毕业,2017年离职加入特斯拉,2023年重返OpenAI,2024年再次离职
约翰·舒尔曼(JohnD.Schulman),当时博士未毕业,2024年离职
特雷弗·布莱克威尔(TrevorBlackwell),YC原合伙人,2017年离职
祝贺大家迈出了伟大的第一步!
我们在人数和资源上远不及一些大家熟知的机构,但我们站在正义这边,这一点非常重要。我觉得我们有很大的机会。
我们需要考虑的最重要的事是招募顶尖人才。任何公司的成就,最终都是团队成员共同努力的结果。如果我们能持续吸引到最有才华的人,并且方向和目标一致,那么OpenAI一定能够成功。
期待与大家合作,
埃隆
2016年:组建团队-薪酬架构-微软的千万美元订单-马斯克的反对
祝贺猎鹰9号成功
[转发邮件]
嗨,埃隆,
祝你新年快乐,███!(注:█是OpenAI隐藏的信息,下同)
恭喜猎鹰9号着陆,这真是一个了不起的成就,现在是时候开始打造舰队了!
我很希望能听到你对这些观点的反驳意见。
没错。
后续想法
几点说明:
DeepMind创造出深度智能的概率每年都在增加。也许在2到3年内它不会超过50%,但很可能会超过10%。考虑到他们的资源,在我看来,这个想法并不疯狂。
无论如何,我认为高估竞争对手总比低估好得多。
这并不意味着,我们应该着急地招聘不够优秀的人才。这么做无法取得任何好结果。我们需要做的是加倍努力,去寻找世界上最优秀的人才,采取一切必要的手段将他们吸引到公司里,并给他们高度的紧迫感。
在接下来的6到9个月内,OpenAI必须取得一些重要的成果,来证明我们真正有实力。不一定非得是重大突破,但至少应该足够让全球的关键人才注意到它,并产生兴趣。
████████████████████████████████████████████████████████████████████████████████████████████████████████████
薪酬框架
大家好,
我们正在进行成立以来的第一轮全职招聘。这显然非常重要,因为这将对未来产生长期影响。我现在还不太有把握单独做决定,希望能得到一些指导。
以下是我们当前的安排:
创始团队:年薪27.5万美元+0.25%的YC股权
新聘人员:17.5万美元年薪+12.5万美元年终奖或等值的YC或SpaceX股权。奖金根据绩效评估,可能为0%或大于100%。
特殊情况:格雷格+伊利亚+特雷弗
我们的计划是基本薪资保持大体一致,用浮动的奖金奖励表现优秀的员工。
一些说明:
一些薪资数据:
我现在的问题是:
1.我预计安德鲁会尝试提高薪资。我们是否应该坚持现有的offer,并告诉他只有在他非常愿意接受这个薪资后才能加入(并告诉他其他人也放弃了更高的收入)?
2.伊恩将在周三面试并(我相信)收到offer。我们是否应该把他的offer视为最终方案,还是应该根据Google的offer调整?
3.根据1和2的问题,我在思考这种平衡薪资的策略是否可行。如果我们继续保持现状,我觉得我们可能需要特别强调浮动奖金的价值。或许可以考虑使用签约奖金作为杠杆吸引人才?
4.虽然不太重要,但我们的实习生薪资低于市场:每月9千美元。(Facebook提供9千美元+免费住房,Google提供约1.1万美元的月薪)。对实习生来说,薪资并不是最重要的,经验才是重点。但我认为我们可能因此失去了一些合适的候选人。考虑到实习生每小时的薪资比全职员工低很多,我们是否应该考虑提高薪资?
随时可以讨论这些问题。
gdb
我们必须全力以赴争取顶尖人才。就提高薪资吧。如果某个时候需要重新调整现有员工的薪资,那也没问题。
我们要么吸引到世界上最优秀的人才,要么被DeepMind打败。
不惜一切代价吸引顶尖人才,我完全支持。
DeepMind正在给我带来极大的心理压力。如果他们赢了,后果将非常严重,他们“一心统治世界”的价值观让我非常担心。
显然,他们正在取得重大进展,毕竟那边的天才实在太强了。
明白,完全理解你的意思。计划已经定了。我会继续和山姆一起处理具体细节,如果你想了解最新情况,请随时告诉我。
《连线》杂志采访
山姆·泰勒(SamTeller),时任马斯克首席助理
我接受了《连线》杂志关于OpenAI的采访,事实核查员向我提出了一些问题。我想特别和你同步两点,确保回答合理并与你的立场一致:
1.OpenAI是否会公开所有的研究?
2.OpenAI是否认为,让尽可能多的人掌握最先进的AI技术,是防止过于强大的AI落入私人手中并威胁世界的最佳路径?
我们认为,用AI扩展个体意志,是确保AI始终造福人类的最有前景的路径。这种方法的吸引力在于,有许多能力相当的智能体存在时,它们可以相互制衡,防止单一坏人的影响。但我们不会声称已经有了所有的答案:相反,我们正在建立一个能够寻找这些答案的机构,而且无论答案为何,这个机构都能采取最佳行动。
谢谢!
没问题。
关于莫琳·多德的问题
莫琳·多德(MaureenDowd),时任《纽约时报》专栏作家
亚历克斯·汤普森(AlexThompson),时任莫琳·多德的助理
[转发亚历克斯·汤普森的邮件]
嗨,山姆,
最近在德国,当被问及马斯克的担忧时,扎克伯格称这些担忧“过于夸张”,并赞扬了AI的突破,其中包括一个系统。他声称,这个系统可以用手机诊断皮肤病变是否是癌症,准确性堪比“最好的皮肤科医生”。
“除非我们真的搞砸了,”他说,机器将始终服从于人类,而不会成为“超人”。
“我认为,我们可以开发一种AI,它为我们工作,帮助我们......有些人渲染AI是一种巨大威胁,但我觉得这种担忧过于牵强,远不及疾病、暴力等造成的灾难。”在4月的Facebook开发者大会上,他将自己的理念概括为:“选择希望,而不是恐惧。”
亚历克斯·汤普森
《纽约时报》
历史明确表明,任何强大的技术都是一把双刃剑。假设AI——可以说是所有技术中最强大的——仅仅只有一面,是非常愚蠢的。
这正是我们创立OpenAI的原因。
微软托管协议
以下是微软的条款:用1000万美元,购买价值6000万美元的计算资源,我们也可以对他们在云上部署的内容提出建议。如果你有什么反馈,请告诉我。
微软/OpenAI条款
微软与OpenAI:加速Azure和CNTK上深度学习的发展
合作目的
OpenAI专注于以造福人类的方式推动深度学习发展。微软希望与OpenAI合作,加速微软Azure上的深度学习发展。为此,微软将以优惠价格向OpenAI提供Azure的计算资源,使OpenAI能够有效地推进使命。
合作目标
微软
OpenAI
参与方(法律实体):微软、OpenAI
拟定协议签署日期:2016年9月19日
拟定协议生效日期:同协议签署日期
法律文件起草方:微软
合作期限:3年
工程条款
财务条款
营销与公关条款
微软和OpenAI承诺共同推广Azure平台的深度学习能力,并达成以下共识:
Re:微软托管协议
发件人:埃隆·马斯克
收件人:山姆·阿尔特曼
抄送:山姆·泰勒
这真让我感到恶心。这太扯淡了,完全符合我对他们的预期。
评估、推广和使用CNTKv2、AzureBatch和HD-Insight:OpenAI将评估CNTKv2、AzureBatch和HDInsight,用于研究并提供改进建议。OpenAI与微软合作,在其研究和开发者生态系统中推广这些工具,并将微软Azure作为首选的公共云平台。在适合研究的前提下,OpenAI可自行决定采用这些产品。
可以这么说,我们愿意让微软把闲置的计算资源捐赠给OpenAI,并让外界知道这一点,但我们不想签署任何合同或同意“推广”。他们可以随时终止支持,我们也可以随时退出。
读到那部分我也有同样的反应,他们已经同意删除这一条。
我们最初只是希望得到捐赠闲置计算资源,但团队希望确保有足够的资源。我会和微软谈,确保没有任何附加条件。
我们应该低调处理这事。不要有任何承诺,也不签合同。
好的,我会看看这个方向上能争取到多少资源支持。
以“由OpenAI全权决定、努力保证诚信”为前提,微软现在愿意达成一项总额为5000万美元的协议,并且双方可随时终止合作。没有推广要求,没有附加条件,也不会让我们看起来像微软的营销工具。可以推进了吗?
只要他们不在宣传中主动提到这件事,我没意见。如果能避免看起来像微软的“营销工具”,这比5000万美元更有价值。
2017年(上):首席科学家的双周通报-确定AGI研究计划-初步成果
双周通报
这是我们双周通报的第一篇。我们的目标是让你随时了解最新情况,并帮助我们更好地利用你到公司的机会。
计算资源:
Dota2:
快速学习新游戏:
机器人:
自我对弈作为通向AGI的关键路径:
我们还有一些更酷的小项目,将在取得重要成果时提供更新。
谢谢,这是一个很棒的更新。
好吧。让我们找出最便宜的方式,确保计算资源不会成为瓶颈……
研发AGI的事项
AI的进步不完全是一个硬件游戏,就像物理学不完全是粒子加速器的游戏一样。但如果我们的计算机太慢,再多的聪明人也无法实现AGI,就像如果粒子加速器太小,我们就无法弄清楚宇宙是如何运作的。足够快的计算机是一个必要条件,过去所有的失败可能都是因为计算机速度不够,无法支持AGI实现。
过去1年,GoogleBrain取得了令人印象深刻的成果,因为它们拥有比其他机构多一个或两个数量级的GPU。我们估计,Brain拥有大约10万块GPU,FAIR拥有大约1.5万到2万块,DeepMind为每个研究员分配50块GPU,并从Brain为AlphaGo租用了5000个GPU。显然,当有人在GoogleBrain运行神经网络时,它会消耗掉DeepMind所有人的配额。
有充分的理由相信,在未来4到5年,深度学习硬件每年都会加速10倍。世界已经习惯了相对悠闲的摩尔定律节奏,并且没有准备好迎接这种硬件加速带来的能力剧变。这种加速的发生,并不是因为芯片有了更小的晶体管或更快的处理速度。而是像大脑一样,神经网络本质上是可以并行化的,正在开发中的高度并行硬件将会做好这一点。
接下来3年,机器人技术应该能彻底解决,AI应该会解决一个长期未被证明的定理,在编程竞赛中稳定获胜,应该会出现令人信服的聊天机器人(尽管没有哪个能通过图灵测试)。仅仅4年,每一个过夜的实验,都可能使用巨大的算力,如果拥有正确算法,人们一觉醒来可能会面临AGI的到来——接下来的2到4年内,可能会在对抗的多智能体模拟实验中找出这个算法。
要从事研发安全AGI的工作,OpenAI需要:
本周进展:
████████████████████████████████████
██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████
███████████████████████████████████████████████████████████████████████████████████████████████████████████████
短信交流记录
希冯·齐里斯(ShivonZilis),2016年加入OpenAI,2017年加入特斯拉,担任项目总监,后持续在OpenAI活跃,同时帮马斯克监管Neurlink等公司;2019年加入OpenAI董事会;2021年为马斯克生下双胞胎;2023年退出OpenAI董事会。
OpenAI注:格雷格向希冯·齐里斯(她是马斯克和OpenAI的联络人)发送了当天与马斯克会面的要点。
希冯·齐里斯(22:35):
进展如何?
格雷格·布洛克曼(22:35):
希冯·齐里斯(22:43):
<****>和其他人。会努力为你们争取。
现在无法用“非传统”的策略击败它有望1个月内击败所有人类
[链接失效]
设计营利架构与Cerebras谈判合并条款对Cerebras进行更多尽职调查
2017年(下):马斯克提出转型营利架构-争控制权-阿尔特曼赢了
北京希望2030年在中国制造AI
他们会想尽办法拿到我们开发的东西。这可能是要改变路线(注:指更封闭、转营利公司)的另一个原因。
[新闻报道链接]
100%同意。我们认为发展路径必须是:
█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████
-gdb
我们周六或周日聊一下吧。我有一个初步的计划跟你们讨论一下。
明天下午
是时候让OpenAI迈出下一步了。这就是触发事件。(注:OpenAI的AI在Dota1v1比赛中击败了人类最强选手。)
OpenAI笔记
埃隆,
1.短期控制结构?
6.股权分配?
7.融资策略?
结论:
不确定这些是否可行,但根据他们抛出的所有数据点,以下情况似乎能打消他们当前的顾虑:
这太烦人了。请鼓励他们去创办一家公司吧。我已经受够了。
格雷格·布洛克曼(20:19):
事实上,我对于提议的股权比例和董事会控制权的细节还有点困惑。听起来埃隆始终会获得最大的控制权(3个席位或25%的席位),且所有权力归属董事会。
希冯·齐里斯:
是的。我猜测,他原本打算在最初阶段给你们否决权条款,但我不太确定。
格雷格·布洛克曼:
那拥有一个特定百分比的股权会有什么权力?听起来是要设立固定的董事会成员,或者至少是从特定群体中选出董事会成员。所以我很想听听具体细节。另外我猜董事会成员是偶数时,50%就意味着无法采取行动?
我认为A轮优先股(我占绝大多数)应该有权任命四个(而不是三个)董事席位。我不会想立即任命这些董事。就像我说的,我会拥有公司起步阶段的控制权,但这种情况很快就会改变。
初步的目标是组建一个12人的董事会(如果这个董事会最终真的要决定世界命运的话,可能会达到16人),每位董事都要深入理解技术,至少要对AI有基本认识,并具有坚定且明智的道德观。
除了A轮的四个席位和普通股的三个席位之外,每有一个新的领投方/盟友可能都会有一个董事席位。但是,新增的董事会成员不能有两个或更多董事会成员反对。移除董事会成员也遵循同样的规则。
我们还会想要增加一些与投资方无关的独立董事。适用相同的规则:增加或移除都不能有两个或更多董事会成员反对。
我太累了,不想把事情搞得太复杂。这个安排看起来基本是对的。如果董事会有16人,我们将拥有7/16的投票权,而我将拥有25%的控制权,这是我的底线。对我来说,这听起来是合适的。如果我们邀请的所有董事会成员最后都反对我们,那我们可能确实该接受失败。
如前所述,根据我的董事会经验(假设董事会由优秀、聪明的人组成),他们都是理性且通情达理的。基本不会出现依靠单个董事投票来决定胜负的激烈对抗情况,所以这些(投票权的安排)几乎肯定(希望如此)会变成一个无关紧要的问题。
最后说一句,跟你们讨论股权和董事会的事情,我觉得特别顺畅,心里很有底。
如果你们对上面的安排有什么想法,直接跟我说。
OpenAI注:马斯克说,他要当OpenAI的CEO。2017年9月15日,马斯克安排下属创办名为OpenArtificialIntelligenceTechnologies,Inc.的营利公司。
坦诚的想法
埃隆,山姆,
这是格雷格和我参与过的最重要的对话,如果项目成功,这将是全世界见证的最重要的对话。同时,对我们每个人来说,这也是一场深刻且私密的对话。
昨天,当我们考虑最终承诺时,我们意识到我们犯了一个错误。我们有一些重要的担忧没向你们提出。我们之所以没有提出来,是因为我们害怕:害怕伤害彼此的关系,害怕你们会看低我们,或者失去与你们合作的机会。
我们的担忧可能是无法解决的。我们真心希望不是这样,但我们知道,如果我们现在不讨论这些问题,我们肯定会失败。我们也相信,如果我们能够共同努力,还是有希望解决这些问题,继续合作下去。
埃隆:
我们真的很想与你合作。我们相信,如果我们联手,成功的机会将是最大的,潜力也是最大的,这一点毫无疑问。我们想和你一起工作的愿望非常强烈,以至于我们愿意放弃股权、个人控制权,甚至让自己随时可以被解雇——只要能和你合作,我们不惜一切代价。
但我们意识到,我们思考控制权对世界的影响时过于草率了。似乎太自大了,我们没有认真考虑成功可能带来的影响。
当前的架构为你提供了一条路径,你最终能拥有AGI的单方面绝对控制权。你说过,你不想控制最终的AGI。但在这次谈判中,你向我们表明,绝对控制权对你来说极其重要。
例如,你说你需要成为新公司的CEO,这样每个人都会知道你是负责人,尽管你也说过你讨厌做CEO,宁愿自己不是CEO。
因此,我们担心,随着公司在AGI方面取得真正进展,你会选择保留绝对控制权,哪怕你现在说不想这么做。我们不同意你的说法——即我们能够选择离开公司是我们最大的权力——因为一旦公司真正走向AGI,公司将比任何人都重要。
OpenAI的目标是让未来变得美好,避免AGI独裁。你担心Demis(杰米斯·哈萨比斯,DeepMind创始人)可能会创造一个AGI独裁。我们也是。所以,创造一个你可能成为独裁者的架构显然是个坏主意。尤其是我们还可以创造一个避免这种可能的其他架构。
我们还有一些较小的担忧,但我们认为在这里提出来是有意义的:
如果我们决定收购Cerebras,我强烈感觉这将通过特斯拉完成。但如果我们也可以通过OpenAI做到这一点,为什么要用特斯拉呢?具体来说,问题在于,特斯拉有为股东最大化收益的责任,这与OpenAI的使命不一致。因此,最终结果可能不会对OpenAI最有利。
我们认为,OpenAI作为非营利组织之所以成功,是因为你和山姆都参与其中。山姆真正地起到了制衡你的作用,这非常有效。至少到目前为止,格雷格和我在制衡你方面要差得多。我们认为这一点甚至在这次谈判中就得到了体现:我们差点准备搁置长期AGI控制权的问题,而山姆坚持了自己的立场。
山姆:
当格雷格和我遇到困难时,你总能提出深刻而正确的答案。你已经非常深入和彻底地思考了这个问题的解决方案。
格雷格和我懂技术执行,但我们不知道架构的决策在接下来的1个月、1年或5年内将如何发展。
但在这个过程中,我们无法完全信任你的判断,因为我们不了解你的权衡逻辑。
我们不明白为什么CEO的头衔对你如此重要。你提到的理由一直在变,我们很难理解什么在驱动它。
格雷格和伊利亚:
在这次谈判中,我们也有失败之处,我们在这里列出一些(埃隆和山姆,我们确信你们会有很多补充......):
在这次谈判中,我们意识到,我们让2-3年后的财务回报影响了我们的决策。这就是为什么我们在控制权问题上坚持——我们觉得股权已经足够好,为什么还要担心呢?但这种态度是错的,就像那些认为AI安全不是问题的AI专家一样,因为他们根本不相信自己会开发出AGI。
我们在谈判中没有完全说出真相。虽然我们有各种借口,但这种行为对整个过程造成了伤害,我们可能会因此失去山姆和埃隆的支持。
目前的问题已经足够多,因此我们认为非常有必要见面并谈清楚。如果我们不这么做,我们的合作就不会成功。我们四个人今天能见面吗?如果我们都说出真实的想法,并解决问题,我们要创立的公司更有可能承受它未来将面对的强大挑战。
格雷格&伊利亚
各位,我受够了。我已经忍无可忍了。要么你们自己去做点什么,要么继续以非营利组织的形式运营OpenAI。在你们做出明确承诺留在OpenAI之前,我不会再为OpenAI提供资金。否则我就是一个傻瓜,白白资助你们创业。讨论到此为止。
明确一点,这并不是要求你们接受之前讨论内容的最后通牒。那些内容已经不再是可选项了。
我对非营利架构仍然充满热情!
非营利组织
霍尔登·卡诺夫斯基(HoldenKarnofsky),美国专注研究和资助的非营利组织OpenPhilanthropy的联合创始人。2017年向OpenAI捐赠3000万美元,成为董事,后来退出
简单汇报一下,格雷格和伊利亚说他们希望继续保持非营利组织架构。他们明白,要让这个架构发挥作用,他们需要提供一个保证,(你们)不会去做其他事情。
我还没有和阿尔特曼谈过,但他说今天下午可以聊,之后我会汇报我听到的任何消息。
如果有任何我能帮忙的地方,请告诉我。
来自阿尔特曼:
架构:非常愿意保持非营利组织并继续支持。
信任:他承认,在这个过程中,他和格雷格、伊利亚之间失去了大量信任。他觉得,他们的信息沟通经常不一致,有时显得幼稚。
融资:格雷格和伊利亚认为,如果有明确的努力方向,可以通过捐赠筹集到数亿美元。山姆认为筹集数千万美元是可行的,但更多的资金无法明确。他提到霍尔登(Holden)对转向营利架构不满,所以可能在OpenAI保持非营利架构的情况下提供更多资金,但尚未给出明确承诺。山姆随后提到,乐观来看,金额可能达到1亿美元。
沟通:格雷格和伊利亚在整个过程中,将团队的每个动态告知所有成员,让山姆不满。他认为这分散了团队的注意力。另一方面,在过去的一天里,几乎所有人都被告知不会实行营利架构,对此他感到有些满意,因为他希望团队能够重新专注工作。
希冯
2018年:考虑发币-OpenAI宪章-马斯克退出董事会
ICO
埃隆—
提醒一下,我和一些安全团队的成员谈过,他们对ICO以及未来可能出现的意外影响有很多担忧。(注:ICO,InitialCoinOffering是企业或项目方发行基于区块链的数字代币,向投资者筹集资金。)
我计划明天和整个团队讨论,并征求意见。我会强调需要保密,但我认为让大家早点参与讨论并表达意见非常重要。
完全同意
顶级AI机构现状
ICLR会议(这是专注于深度学习领域的顶级会议,虽然NIPS规模更大,但研究主题更分散)刚刚公布录用和拒稿的决定。有人做了很好的图表,展示了当前深度学习/AI研究的分布状况。虽然这不是一个完美的衡量标准,因为并非所有公司都会优先考虑发表论文,但它具有一定的参考意义。
以下是一个图表,展示了各个机构论文的总数(按口头报告、海报展示、研讨会和拒稿分类):
简单来说,Google以83篇论文提交量占据主导地位。学术机构(伯克利/斯坦福/CMU/MIT)紧随其后,每个机构的提交量在20至30篇之间。
我只是觉得这是一个有趣的切面,展示目前研究活动的集中情况。完整数据可以在这里看到:[链接失效]
-安德烈
与Google相比,OpenAI显然走在了一条必败的道路上。如果不立刻采取重大行动,除了Google之外的所有人,都将变得无足轻重。
我能想到的唯一出路是大幅扩张OpenAI和特斯拉的AI部门。也许两者可以同时进行。对于OpenAI来说,这需要大幅增加捐赠资金并吸引非常有公信力的人加入董事会。目前的董事会情况非常糟糕。
FYI
我认为,想创造最好的未来,就需要让OpenAI大规模扩张。我们的目标和使命从根本上是正确的,随着AGI越来越近,这会变得越来越重要。
募资
我们的募资交流表明:
我尊重你们对ICO想法的决定,这也符合我们的想法。山姆·阿尔特曼一直在研究一个不依赖IPO的融资结构,我们很想听听你的反馈。
一直与我们交流的人中,以下这些是我目前建议的董事会成员人选。我也很想听听你们推荐的、不在此名单上的最佳人选,我们可以一起商讨如何接触他们。
未来3年
未来3年,我们必须建设三样东西:
我们讨论最多的是定制AI硬件和AI数据中心。在软件方面,我们有一个可信的路径(让多智能体在竞争环境中自我对弈),这已经在Dota和AlphaGo中得到验证。我们还发现了当今深度学习中少量但确实存在的限制,这些限制阻碍了模型从人类水平的经验中学习。而且我们相信,我们正独特地走在解决安全问题的路上(至少在大方向上),预计在未来3年内取得成果。
我们希望按以下方式扩大团队规模:
████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████
██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████
道德制高点
我们最大的工具就是道德制高点。为了保持这一点,我们必须:
过去2年
我很想听听,你如何评价我们过去2年在现有资源条件下的表现。以下是我的看法:
很不幸,在AI前沿领域工作成本高昂。例如,DeepMind在2016年的运营费用大约为2.5亿美元(不包括算力成本)。随着他们团队的扩张,现在可能每年约5亿美元。但Alphabet在2016年的净利润约为200亿美元,即使DeepMind没有收入,这些费用对于Alphabet的整体财务状况来说仍然相对较低。除了DeepMind,Google还有GoogleBrain、Research和Cloud。还有TensorFlow、TPU,他们在AI研究领域占据了约三分之一的份额(实际上,他们举办自己的AI会议)。
我也有强烈感觉,计算能力将是达到AGI的必要条件(甚至可能是充分条件)。如果历史趋势有参考价值,那么AI的进步主要由系统——计算能力、数据和基础设施——驱动。我们今天使用的核心算法自1990年代以来几乎没有重大变化。不仅如此,任何发表在论文中的算法进展,几乎都可以被立即复现并整合进现有系统。反过来说,单纯的算法进步如果没有足够的规模支持,也只是无力的存在,无法达到令人惊叹的效果。
在我看来,OpenAI目前正在烧钱,而现有的融资模式无法达到可以与Google(一个市值8000亿美元公司)真正竞争的规模。如果你们无法真正与其竞争,却继续以开放的方式研究,实际上可能会让情况变得更糟,等于“免费”帮助了他们。因为任何进展对他们来说都很容易复制并迅速大规模整合。
我之前提到过,我认为最有前景的选择是让OpenAI依附于特斯拉,将特斯拉作为“现金牛”。我相信依附其他大公司(例如苹果?亚马逊?)会失败,因为公司的DNA不兼容。用火箭的类比来说,特斯拉已经用Model3的整个供应链、车载计算机和持续的互联网连接构建了“第一级”。“第二级”将是基于大规模神经网络训练的全自动驾驶解决方案,OpenAI的专业知识可以显著加快这一进程。如果能够在大约2-3年内推出一个功能完善的全自动驾驶解决方案,我们可以卖出大量的汽车和卡车。如果我们做得非常好,交通行业足够大,我们完全可以将特斯拉的市值提升到大约1000亿美元或更高,并利用这部分收入为AI研究提供适当规模的资金支持。
我看不到其他方案,能在10年内达到Google级别的资本规模,而且是可持续的。
[转发安德烈的邮件]
安德烈说得完全正确。虽然我们可能希望情况有所不同,但在我和安德烈看来,特斯拉是唯一一条可能勉强与Google相抗衡的道路。即便如此,成为Google的对手的可能性也很小。只是不为零。
AI更新
亚当·德安吉洛(AdamD'Angelo),Quora创始人,2023年11月与伊利亚等人联合驱逐阿尔特曼,目前仍在OpenAI董事会
筹资:
正式退出董事会:
未来的董事会:
特斯拉AI
Cerebras
OpenAI宪章
我们计划下周发布这个——有什么建议吗?
OpenAI的使命是确保通用AGI)——我们指的是在大多数有经济价值的创造性工作中表现超过人类的高度自主系统——能够惠及全人类。我们将尝试直接开发安全且有益的AGI。如果我们的工作帮助他人实现这一目标,我们会认为我们的使命完成了。为此,我们承诺遵循以下原则:
利益广泛分配
长期安全
我们承诺开展必要的研究,确保AGI的安全,并推动此类研究在整个AI社区广泛应用。我们担心后期的AGI开发可能演变为一场缺乏充分安全措施的竞争。因此,如果一个与我们价值观一致、注重安全的项目在我们之前接近开发出AGI,我们承诺停止与其竞争,并转向协助该项目。我们将在具体情况下制定具体协议,但触发条件通常可能是“在接下来的2年内成功的概率超过50%”。
技术领导力
AI更新(续)
里德·霍夫曼(ReidHoffman),Linkedin联合创始人。因为投资了OpenAI竞争对手InflectionAI等,霍夫曼2023年3月退出OpenAI董事会。
加布·纽维尔(GabeNewell),游戏开发者,OpenAI的捐资人。
根据与阿尔特曼的对话更新了信息。你暂定周二与他见面。
融资:
技术:
OpenAI更新
嗨,埃隆-
明年一季度,我们计划在完全开放的游戏环境举办最后一场Dota锦标赛,任何职业战队都可以参与角逐高额奖金。之后,我们将宣布无模型强化学习(Model-freeRL)阶段完成,部分团队成员将使用基于模型的强化学习(model-basedRL)方法重新攻克Dota1v1。
同样在一季度,我们计划发布几个机械手演示项目——魔方、转笔特技和健身球。新任务的学习速度应该会非常快。年底时,我们将尝试在两个机械臂上各安装一个机械手,看看会有什么效果......
我们在语言方面也取得了快速进展。我希望明年我们能够生成短篇故事,并开发出一个优秀的对话机器人。
████████████████████████████████████████████████████████████████████████████我们希望通过无监督学习来开发模型,使其能够完成一些高难度任务。比如在图像分类时不会犯人类从来不犯的错误——在我看来,这意味着模型需要具备某种程度的概念理解能力。
我们在多智能体方面也取得了不错的进展:多个智能体现在已经能够协作建造简单的结构、进行激光对战等。
同时,我正在推进一项计划,将我们的计算资源从Google迁移到微软(补充我们自有数据中心)。
另外,我也很乐意讨论融资(即便采取激进的增长策略,我们目前的资金也足够支撑接下来约2年的发展)和不断迭代的硬件规划。不过这两个话题最好不要通过邮件讨论,也许下次你来Pioneer时我们可以当面聊?
没问题,我们可以周三晚上在旧金山见面。
我觉得应该重申一下
如果不大幅度提高执行力和资源,我估计OpenAI与DeepMind/Google的竞争中跟上节奏的概率是0%,不是1%。我真希望情况不是这样。
就算是筹集几亿美元也不够。现在就需要每年投入数十亿美元,否则一切都无法实现。
不幸的是,人类的未来掌握在<****>手中。
█████████
他们做的远不止这些。
OpenAI让我想起贝佐斯和蓝色起源。他们远远落后于SpaceX,而且差距还在不断扩大,但贝佐斯的自负让他荒谬地认为并非如此!(注:OpenAI披露了两次这封邮件,第一次披露时把这段话隐去了。)
我真的希望自己是错的。
2019年及之后:OpenAI正式组建营利实体-马斯克凌晨3点发来短信
苏·尹(SueYoon),GoogleX机器人项目负责人,2019年退出OpenAI董事会。
和塔莎·麦考利(TashaMcCauley),FellowRobots联合创始人,2023年11月与伊利亚等人联合驱逐阿尔特曼,失败后退出OpenAI董事会
要点:
说到最后一点,我们正在讨论一笔数十亿美元的投资,我希望在你有空时得到你的建议。你来湾区时,我很乐意过来见你。
彭博社:埃隆·马斯克共同创立的AI研究组织组建营利部门
请明确说明,我与OpenAI的营利部门没有任何财务上的关系。
埃隆·马斯克共同创立AI研究组织组建营利部门
彭博社
总部位于旧金山的AI研究组织OpenAI,由埃隆·马斯克及几位硅谷知名企业家共同创立,正在组建一个营利部门,以便筹集更多资金。[点击阅读完整报道。]
正在处理。
山姆·阿尔特曼(8:07):
这是埃隆发来的,你有什么建议?
图中是凌晨3:06分发来的一连串信息:“我是埃隆”“新的奥斯汀号码”“看到OpenAI估值达到200亿美元,我很不安。事实上,我提供了几乎所有的种子轮、A轮和大部分B轮资金。”“[新闻报道链接]”“这是诱骗和欺诈”
你之前给他提供过股权,但他拒绝了,对吧?我不知道他说的A轮和B轮是什么意思
山姆·阿尔特曼(21:13):
如果你有空的话,能快速看一下吗?我理解这感觉确实不好——当我们设立有盈利上限的实体时就向你提供过股权,当时你不想要,但如果你现在想要的话,我们依然很乐意给你。考虑到我们需要的资金量,以及为了保持“将AGI交给人类”的这条路,除了设置利润上限这个方案,我们没找到其他选择。而且这个方案还允许董事会在安全需要时撤销所有股权。顺便说一下,我个人没有任何股权,从来都没有。我正在尽最大努力在这个棘手的局面中寻找平衡,随时都很乐意和你讨论怎样才能做得更好。也很想向你展示最近的进展。