马斯克诉OpenAI要点 · 及全文148条中文版

更新时间:2024-03-02 15:55:35作者:橙橘网

马斯克诉OpenAI要点 · 及全文148条中文版

文:天空之城城主


科技圈还有比之前Sam Altman被自家董事会炒鱿鱼更大的瓜吗?有!这就是今天马斯克起诉OpenAI 以及创始人Sam Altman和Greg Brockman。

这个突发事件之震撼和潜在影响之深远无疑是氢弹级别,如CNBC 早间评论所说:这就是年度大戏!

和以往采访视频里嘴炮质疑OpenAI的合法性不同,这次马斯克同学可不是说说而已,文书已经直接递交到了加州法院。诉求里除了钱这种小事,最核心的是限制微软使用OpenAI大模型技术,以及对公众开源GPT4!

这完全是在要OpenAI和微软的命。


这份长达46页的文书精彩纷呈,完全就是马斯克对OpenAI恩怨故事的娓娓讲述,其中非常多细节都是首次披露,绝不容错过。

以下是马斯克向法院提交的主要内容(看完这3000字要点还意犹未尽的同学可以接着看随后的诉讼书全文之天空之城翻译版,2万多字的篇幅以时间顺序列了148个要点):

2015年,Altman先生向马斯克先生提出了一个想法,即让Y Combinator启动一个AI的“曼哈顿计划”,并将其结构化为一个非营利组织,马斯克先生对此表示赞同。在进一步的沟通后,Altman先生提出了一个关于新的“AI实验室”的详细提案,马斯克先生对此表示全面赞同。

随后,Altman先生开始招募其他人来帮助开发这个项目,其中包括Gregory Brockman。马斯克先生对这个项目表示了资助承诺,并为新实验室起了名字——OpenAI。马斯克先生与Altman先生和Brockman先生联手,正式启动并推出了OpenAI项目。

OpenAI公司于2015年12月在特拉华州注册,其宗旨是为与人工智能相关的技术的研究、开发和分发提供资金,其产生的技术将造福公众。马斯克先生在推动OpenAI公司起步中发挥了关键作用,他积极参与招聘工作,提供资金支持,并租赁了公司的初始办公空间。在2017年,Brockman先生和其他人提议将OpenAI, Inc.从非营利组织转变为营利公司,但马斯克先生坚持非营利性质。Brockman和Sutskever博士最终决定继续非营利结构,并承诺筹集资金以支持非营利组织。2018年,马斯克先生辞去了OpenAI, Inc.的联席主席职务,但仍然支持该组织,并向其捐赠了大约350万美元。2019年,OpenAI, Inc.宣布将创建一个营利子公司:OpenAI, L.P。马斯克先生继续支持OpenAI, Inc.,并在2019年再次捐赠了348万美元。

OpenAI的公司结构在OpenAI, L.P.宣布之后变得越来越复杂,涉及多个实体,包括OpenAI, L.L.C.,OpenAI OpCo, LLC,OpenAI Global, LLC,OAI Corporation, LLC和OpenAI Holdings, LLC。所有这些实体都是为了推进OpenAI, Inc.的非营利使命而设立的。

OpenAI的技术发展从AI到AGI,其初步工作大体上沿袭了DeepMind的步伐,使用强化学习来玩游戏。OpenAI的研究人员继续研究,并迅速产生了另一个惊人的结果:通过使用谷歌Transformer架构的前半部分,一个深度神经网络可以在大量文本上进行预训练,并用来生成新的文本。OpenAI发布了第二代模型,GPT-2,以及第三个版本,GPT-3。在2022年,Google的研究人员利用这些结果,展示了一个小的改变,称为链式思考提示,可以使“大型语言模型进行复杂的推理”。这段记录主要描述了OpenAI发布了其新一代模型GPT-4的情况,以及其在各种任务上的表现,包括统一律师考试、GRE口语评估和高级侍酒师考试等。GPT-4的表现在研究社区中引起了关注,微软的研究人员在一篇名为“人工通用智能的火花:GPT-4的早期实验”的详细分析中指出,GPT-4可以解决新的和困难的任务,包括数学、编程、视觉、医学、法律、心理学等,而不需要任何特殊的提示。

然而,OpenAI违反了创始协议,GPT-4是一个完全封闭的模型,其内部设计仍然是一个秘密,没有发布任何代码。OpenAI没有发布一篇描述其内部设计的任何方面的论文;它只是发布了一些关于其性能的新闻稿。GPT-4的内部细节只有OpenAI和微软知道。

此外,OpenAI正在开发一种名为Q*的神秘算法,其具体内容尚不清楚,但路透社报道称,几名OpenAI的员工写了一封信,警告Q*的潜在威力。

在一系列事件中,OpenAI, Inc.的大部分董事会成员在2023年11月22日被迫辞职,他们的接替者据信是由Altman先生和微软精心挑选的。在2023年11月17日,OpenAI, Inc.的董事会解雇了Altman先生。Brockman先生也被从董事会中移除,但被告知他将保留在OpenAI的职位。

微软CEO Satya Nadella得知Altman先生被解雇的消息后,他非常愤怒。Nadella先生邀请Altman先生和Brockman先生领导一个新的微软AI研究实验室,不受OpenAI, Inc.的人道主义使命的约束。Nadella明确表示,离开OpenAI的员工在微软的新实验室将受到欢迎,并保持相同的薪水。

尽管微软曾表示他们有能力在没有OpenAI的情况下运作,但微软从未放弃其计划,要求恢复Altman先生作为OpenAI, Inc.的CEO的地位。在Altman先生被解雇的几天后,OpenAI, Inc.的董事会面临来自律师和主要股东(包括微软)的压力,要求恢复Altman先生的职务。但实际上,它已经开始限制公众对其运营的了解。

Toner女士是恢复Altman先生职务的努力中的特定目标,OpenAI的一名律师告诉她,如果Altman先生的解雇导致OpenAI失败,她和董事会可能面临违反对投资者的受托责任的指控。然而,OpenAI的董事会从未对投资者承担过受托责任,公司的使命优先于对投资者的责任。

微软对OpenAI及其董事会具有强制力,如果微软停止提供OpenAI依赖的云计算系统,公司将无法运作。Altman先生和微软对董事会的压力一直持续到Altman先生被重新任命为OpenAI的CEO,同时要求Toner女士、McCauley女士和Sutskever博士从董事会辞职。

Altman先生回归后,他挑选了一个新的董事会,这个董事会在AI治理方面的实质性背景较差。随着Altman先生的复职和董事会的重组,OpenAI的公司结构崩溃,放弃了其非营利使命。OpenAI的行为可能对硅谷产生重大影响,如果被允许,可能代表科技初创公司的范式转变。公众对董事会的“审议审查过程”揭示了什么,导致了Altman先生最初的解雇,一无所知。然而,对于Musk先生和广大公众来说,有一件事是清楚的:OpenAI已经放弃了其“不可撤销”的非营利使命,追求利润。

OpenAI的创始人Altman先生正在与中东投资者进行讨论,以筹集高达7万亿美元的资金,以努力开发全球AI芯片制造工厂的网络。这可能会给投资者带来巨大的影响力,尤其是当其中一个潜在的捐赠者是阿联酋的国家安全顾问,而美国官员对阿联酋与中国的关系感到担忧时。

获取OpenAI的利益冲突政策对于揭示Altman先生利用OpenAI推动自己的经济利益的能力非常重要。例如,2019年Altman先生担任CEO时,OpenAI签署了一份意向书,打算从Altman先生大量投资的一家初创公司购买价值5100万美元的芯片。

OpenAI曾经是基于与公众的开放沟通进行安全、负责任的AGI开发的先驱,但现在它已经关闭了大门,将其营利子公司的最大投资者带到了一个只对人类负有唯一信托责任的董事会,并继续秘密地朝着可能对人类产生灾难性影响的利润为中心的未来前进。

马斯克先生与Altman先生和Brockman先生一起创立并资助了OpenAI, Inc.,以换取并依赖创始协议,以确保AGI将造福人类,而不是营利公司。然而,随着2023年的事件的发展,他对OpenAI, Inc.的贡献已经被扭曲为造福被告和世界上最大的公司。

诉讼原因:包括违反合同、承诺不履行、违反信托责任、不公平的商业行为和会计问题。


=== 天空之城全中文版 (未经授权请勿转载) ===

IRELL & MANELLA LLP

Morgan Chu (SBN 70446) Alan Heinrich (SBN 212782) Iian Jablon (SBN 205458) Abigail Sellers (SBN 342380) Justin Koo (SBN 351547) Henry White (SBN 351549) 1800 Avenue of the Stars, Suite 900 Los Angeles, CA 90067 电话: (310) 277-1010 传真: (310) 203-7199 mchu@irell.com aheinrich@irell.com ijablon@irell.com asellers@irell.com jkoo@irell.com hwhite@irell.com 代表原告Elon Musk的律师

加利福尼亚州高级法院 ,旧金山县

Elon Musk,个人,原告,

vs.

Samuel Altman,个人,Gregory Brockman,个人,OpenAI, Inc.,一家公司,OpenAI, L.P.,一家有限合伙公司,OpenAI, L.L.C.,一家有限责任公司,OpenAI GP, L.L.C.,一家有限责任公司,OpenAI OPCO, LLC,一家有限责任公司,OpenAI GLOBAL, LLC,一家有限责任公司,OAI CORPORATION, LLC,一家有限责任公司,OPENAI HOLDINGS, LLC,一家有限责任公司,以及DOES 1至100,

投诉(1)违反合同,(2)承诺阻止,(3)违反信托责任,(4)不公平竞争 根据加利福尼亚州商业与专业法典§17200等,和(5)会计

要求陪审团审判

投诉

原告,Elon Musk(以下简称“原告”)根据信息和信念提出以下指控:

各方

1.在2019年之前,原告是加利福尼亚州的居民。自2019年以来,原告是德克萨斯州的居民。

2.根据信息和信念,原告指控Samuel Altman是加利福尼亚州旧金山县的居民。

3.根据信息和信念,原告指控Gregory Brockman是加利福尼亚州旧金山县的居民。

4.OpenAI, Inc.是一家于2015年12月8日在特拉华州注册的非营利组织。OpenAI, Inc.在加利福尼亚州秘书处注册为外国公司,其主要营业地点位于旧金山18街3180号,邮编94110。

5.OpenAI, L.P.是一家于2018年9月19日在特拉华州成立的有限合伙公司,最初名为SummerSafe, L.P. OpenAI, L.P.在加利福尼亚州秘书处注册为外国有限合伙公司,其主要营业地点位于旧金山18街3180号,邮编94110。

6.OpenAI, L.L.C.是一家于2020年9月17日在特拉华州成立的有限责任公司。OpenAI, L.L.C.在加利福尼亚州设有主要营业地点。

7.OpenAI GP, L.L.C.是一家于2018年9月19日在特拉华州成立的有限责任公司。OpenAI GP, L.L.C在加利福尼亚州秘书处注册为外国有限责任公司,其主要营业地点位于旧金山18街3180号,邮编94110。

8.OpenAI OpCo, LLC是一家于2018年9月19日在特拉华州成立的有限责任公司。OpenAI OpCo, LLC在加利福尼亚州秘书处注册为外州有限责任公司,其主要营业地点位于旧金山Bryant街1960号,邮编94110。

9.OpenAI Global, LLC是一家在2022年12月28日在特拉华州成立的有限责任公司。OpenAI Global, LLC在加利福尼亚州秘书处注册为外州有限责任公司,其主要经营地位于旧金山布莱恩特街1960号,邮编94110。

10.OAI Corporation, LLC是一家在特拉华州成立的有限责任公司。OAI Corporation, LLC在加利福尼亚州设有主要经营地。

11.OpenAI Holdings, LLC是一家在2023年3月17日在特拉华州成立的有限责任公司。OpenAI Holdings, LLC在加利福尼亚州秘书处注册为外州有限责任公司,其主要经营地位于旧金山布莱恩特街1960号,邮编94110。

12.以下,“OpenAI, Inc.”仅用于指代非营利实体或非营利部门,而“OpenAI”通常用于指代OpenAI, Inc.,OpenAI, L.P.,OpenAI, L.L.C.,OpenAI GP, L.L.C.,OpenAI OpCo, LLC,OpenAI Global, LLC,OAI Corporation, LLC,和/或OpenAI Holdings, LLC。

13.原告目前不知道Doe 1至Doe 100的姓名和身份。

管辖权和地点

14.根据信息和信念,原告指控许多发生、陈述和事件在加利福尼亚州旧金山县发生,这是被告居住或主要经营地的大部分地方,而且这个行动基于的大部分发生、陈述和事件在加利福尼亚州发生。

案件概述

A. 人工智能的风险

15.在20世纪的过程中,美国逐渐从主要依赖人力的经济转变为主要依赖人类知识的经济,经济价值越来越多地由人类智能创造。随着世纪的进步,另一种范式转变已经在进行:通过人工智能(AI)创造价值。早期的AI程序能够在某些特定任务中超越人类。在可编程计算机发明后不久,AI就能在寻找网络道路最快路径这样的高度形式化问题上表现出超人的性能。AI在需要更多创造力的问题上达到优越性需要更长的时间。1996年,IBM的Deep Blue AI程序击败了当时的国际象棋世界冠军加里·卡斯帕罗夫。这些程序虽然有用,但基本上是一招骗术——它们的智能并不通用。Deep Blue有大量的处理器,只能下棋。寻路算法可以解决迷宫或规划汽车路线,但不能画画。

16.从2000年代末到2010年代初,一种叫做“深度学习”的旧算法首次在低成本硬件上实现了实用。这在几乎所有AI项目中都引发了一场几乎在一夜之间的性能革命。新的,顶级的算法被开发出来,用于将语音转化为文本,翻译语言,以及识别照片中显示的食物类型。深度学习的一个标志是,算法不需要在手头的任务上有大量的知识设计。他们从训练示例中学习每个任务,基本上是自我编程。这意味着他们比像Deep Blue这样的早期系统更具通用性。

17.随着深度学习算法变得越来越复杂,一些世界领先的AI研究人员将他们的目标设定在了被称为人工普适智能(AGI)的东西上。AGI的基本概念是一个通用的人工智能系统——一台像人类一样能够处理各种任务的机器。

18.马斯克先生长期以来都认识到AGI对人类构成了严重威胁——可能是我们今天面临的最大的生存威胁。他的担忧反映了之前由像斯蒂芬·霍金和Sun Microsystems创始人Bill Joy这样的杰出人物提出的问题。我们的整个经济都是基于人类共同工作并找出解决困难任务的最佳解决方案的事实。如果一台机器可以比我们更好地解决几乎任何任务,那么这台机器就比我们更有经济价值。正如Joy先生警告的,有了强大的AGI,“未来不需要我们。”马斯克先生公开呼吁采取各种措施来应对AGI的危险,从自愿停工到监管,但他的呼声大多被置之不理。

19.但是,像马斯克先生这样的人看到AGI中存在的生存威胁,其他人则将AGI视为利润和权力的来源。

20.2014年,谷歌收购了专注于深度学习的研究团队DeepMind。DeepMind的初始开发之一是AlphaZero,一个下棋的算法。然而,与以前的算法不同,AlphaZero使用了“强化学习”,在这种程序中,程序通过使用不同版本的软件自我对弈来学习下棋。它开始时是随机下棋,对游戏策略一无所知。当一个版本的软件赢得了对另一个版本的游戏时,赢得程序的内部路径会被“强化”,然后重复这个过程。

21.AlphaZero迅速成为了世界上最强的下棋系统。令人震惊的是,还宣布同一个程序也是世界上玩两个其他极其困难的游戏的最强者。用谷歌/DeepMind的话说,“从随机游戏开始,除了游戏规则外,没有任何领域知识,AlphaZero在24小时内在国际象棋、将棋(日本象棋)以及围棋的游戏中达到了超人的水平,并在每种情况下都令人信服地击败了世界冠军程序。”

22.有了DeepMind团队,谷歌立即跃居AGI竞赛的前列。马斯克对此深感不安。他认为(并且仍然这样认为),在像谷歌这样的封闭、以盈利为目的的公司手中,AGI对人类构成了特别尖锐和有害的危险。2014年,与谷歌在其核心业务上竞争已经足够困难了。谷歌已经从我们的搜索、我们的电子邮件和我们图书馆中的几乎每一本书中收集了一套独特的大数据。然而,到目前为止,每个人都有可能通过超强的人类智慧和辛勤工作与谷歌竞争。AGI将使竞争几乎变得不可能。

B. OpenAI, Inc.的创立协议

23.Altman先生声称他也对AGI可能构成的威胁感到担忧。2015年,Altman先生写道,“超人类机器智能(SMI)的发展可能是对人类持续存在的最大威胁。我认为有其他更有可能发生的威胁……但是不太可能像SMI那样摧毁宇宙中的每一个人。”同年晚些时候,Altman先生向马斯克提出了一个建议:他们联手成立一个非盈利的AI实验室,试图在AGI的竞赛中迎头赶上谷歌,但它将与谷歌截然相反。

24.他们三人一起同意,这个新的实验室:(a) 将是一个为了人类福祉而开发AGI的非盈利组织,而不是一个寻求最大化股东利润的盈利公司;(b) 将是开源的,只平衡反向的安全考虑,不会因专有商业原因而保持其技术的封闭和秘密(“创立协议”)。反映了创立协议,马斯克将这个新的AI实验室命名为“OpenAI”,它将与谷歌/DeepMind在AGI的竞赛中竞争,但是为了人类的福祉,而不是私人盈利公司的股东(更不用说世界上最大的科技公司之一)。

25.创立协议还在其他地方得到了纪念,包括在OpenAI, Inc.的2015年12月8日的公司注册证书中,该证书确认其“产生的技术将造福公众,公司将寻求在适用的情况下为公众利益开源技术。公司并非为任何个人的私人利益而设立。”证书进一步确认,公司的所有财产都“不可撤销地”用于这些约定的目的。

26.依赖于创立协议,Altman先生、Brockman先生和OpenAI, Inc.在多次场合上向马斯克重申了这一点,马斯克是OpenAI, Inc.的创立者,他在前几年为其提供了大部分的资金,提供了研究方向的建议,最重要的是,他招募了一些世界领先的科学家和工程师在这个非盈利的企业工作,包括首席科学家Ilya Sutskever。面对谷歌/DeepMind的无情招聘努力,以及谷歌/DeepMind提供的丰厚报酬,OpenAI, Inc.的招聘工作是一项艰巨的任务。如果没有马斯克的创始贡献和早期领导,就不会有OpenAI, Inc.。马斯克从OpenAI, Inc.成立开始一直到2020年9月14日,一直在为其做出贡献。

27.OpenAI的初始研究是在公开环境中进行的,为设计、模型和代码提供了免费和公开的访问。当OpenAI, Inc.的研究人员发现一个名为“Transformers”的算法(最初由Google发明)可以在没有任何明确训练的情况下执行许多自然语言任务时,整个社区都涌现出来,以增强和扩展OpenAI, Inc.发布的模型。这些社区扩展到开源、草根努力和商业实体。

28. Altman先生在2019年成为OpenAI, Inc.的CEO。2020年9月22日,OpenAI与微软达成协议,将其生成预训练变换器(GPT)-3语言模型独家授权给微软。然而,OpenAI发布了一篇详细的论文,描述了GPT-3的内部结构和训练数据,使社区能够自己创建类似的模型。最关键的是,微软的许可证只适用于OpenAI的预AGI技术。微软没有获得AGI的任何权利。何时达到AGI,由OpenAI, Inc.的非营利董事会,而不是微软来决定。

C. 2023年创始协议的违约

29. 2023年,被告Altman先生、Brockman先生和OpenAI烧毁了创始协议。

30. 2023年3月,OpenAI发布了其迄今为止最强大的语言模型GPT-4。GPT-4不仅能够推理,而且比一般人更擅长推理。它在律师统一法考中得分位于90%的百分位数。它在GRE口语评估中得分位于99%的百分位数。它甚至在高级侍酒师考试中得分77%。此时,Altman先生使OpenAI从其原始使命和历史实践中大幅偏离,即将其技术和知识公开给公众。GPT-4的内部设计被保密,除OpenAI外,据信,微软也知道。没有科学出版物描述GPT-4的设计。相反,只有一些新闻发布,吹嘘其性能。据信,这种保密主要是由商业考虑驱动的,而不是安全。尽管OpenAI使用原告和其他人的贡献开发了GPT-4,这些贡献本意是为了造福公众,但GPT-4现在已经成为微软的实际专有算法,已经集成到其Office软件套件中。

31. 此外,据信,GPT-4是一个AGI算法,因此明确不在微软2020年9月与OpenAI的独家许可范围内。在这方面,微软自己的研究人员公开表示,“鉴于GPT-4的能力广度和深度,我们认为它可以合理地被视为一个早期(尽管仍不完整)的人工通用智能(AGI)系统。”此外,据信,OpenAI目前正在开发一个名为Q*(Q星)的模型,该模型对AGI的主张更强。如前所述,微软只有OpenAI预AGI技术的某些权利。但对于微软的许可证,由OpenAI, Inc.的董事会决定OpenAI何时达到AGI。2023年11月,董事会发生了政变。2023年11月17日,OpenAI, Inc.的董事会解雇了Altman先生,因为他们对他继续领导OpenAI的能力失去了“信心”,因为“他对董事会的坦诚度不一致”。在接下来的几天里,Altman先生和Brockman先生与微软合作,利用微软对OpenAI, Inc.的重大影响力,迫使OpenAI, Inc.的大部分董事会成员辞职,包括首席科学家Ilya Sutskever。Altman先生于11月21日被重新任命为OpenAI, Inc.的CEO。据信,新的董事会成员是由Altman先生挑选的,并得到了微软的认可。新的董事会成员缺乏实质性的AI专业知识,据信,他们在设计上不适合独立决定OpenAI何时达到AGI,因此何时开发出超出微软许可范围的算法。

32. 2023年的这些事件构成了对创始协议的公然违约,被告实际上已经颠覆了这个协议。直到今天,OpenAI, Inc.的网站仍然声称其宗旨是确保AGI“造福全人类”。然而,实际上,OpenAI, Inc.已经变成了全球最大的技术公司微软的实际子公司。在新的董事会下,它不仅正在开发,而且实际上正在改进AGI,以最大化微软的利润,而不是为了造福人类。它的技术,包括GPT-4在内的所有产品,主要是为了满足微软的专有商业利益而保持闭源。实际上,就在2023年11月的风波正在酝酿之际,微软的CEO夸口说,即使OpenAI明天消失,也无关紧要。他解释说:“我们拥有所有的知识产权和所有的能力。” “我们有人,我们有计算能力,我们有数据,我们什么都有。” “我们在他们之下,他们之上,他们周围。”

33. 本案是为了迫使OpenAI遵守创始协议,回归其为人类利益开发AGI的使命,而不是为了个别被告和世界上最大的科技公司的个人利益。

详细指控

A. Musk先生对AGI落入错误之手的担忧

34. 2012年,Elon Musk遇到了DeepMind的联合创始人Demis Hassabis,这是一家以盈利为目标的人工智能公司。大约在这个时候,Musk先生和Hassabis先生在加利福尼亚州霍桑的SpaceX工厂会面,他们讨论了社会面临的最大威胁。在这次对话中,Hassabis先生强调了AI进步对社会可能带来的潜在危险。

35. 在与Hassabis先生的对话之后,Musk先生对AI可能变得超级智能,超越人类智能,并威胁到人类的可能性越来越担忧。实际上,Musk先生并不是唯一一个对AI的危险和在DeepMind进行的研究感到恐惧的人。据报道,与Hassabis先生和DeepMind的投资者会面后,其中一位投资者评论说,他为人类做的最好的事情就是当场射杀Hassabis先生。

36. Musk先生开始与他的朋友,如Google母公司Alphabet, Inc的CEO Larry Page讨论AI和DeepMind。Musk先生经常在与Page先生的对话中提到AI的危险,但令Musk先生震惊的是,Page先生并不关心。例如,在2013年,Musk先生与Page先生就AI的危险进行了激烈的交谈。他警告说,除非采取保护措施,“人工智能系统可能会取代人类,使我们的物种变得无关紧要甚至灭绝。” Page先生回应说,那只是“进化的下一阶段”,并声称Musk先生是一个“物种主义者”——他偏爱人类而不是智能机器。Musk先生回应说,“是的,我支持人类。”

37. 在2013年底,Musk先生得知Google计划收购DeepMind,这让他深感担忧。当时,DeepMind是行业中最先进的AI公司之一。因此,Musk先生深深担忧DeepMind的AI技术会落入一个如此轻率地看待它和它的力量的人手中,并可能在闭门之后隐藏其设计和能力。

38. 为了防止这种强大的技术落入Google的手中,Musk先生和PayPal的联合创始人Luke Nosek试图筹集资金购买DeepMind。这个努力在一个小时的电话会议中达到高潮,Musk先生和Nosek先生做出最后的努力,试图说服Hassabis先生不要把DeepMind卖给Google。Musk先生告诉Hassabis先生,“AI的未来不应该被Larry Page控制。”

39. Musk先生和Nosek先生的努力未能成功。2014年1月,有报道称DeepMind将被Google收购。然而,这并没有阻止Musk先生继续确保AI的安全开发和实践。

40. 在Google收购DeepMind之后,Musk先生开始“主持他自己的一系列晚餐讨论,探讨如何对抗Google并推广AI安全。” Musk先生还联系了美国总统巴拉克·奥巴马,讨论AI和AI安全。2015年,Musk先生和奥巴马总统进行了一次会议,Musk先生在会议上解释了AI的危险,并主张进行监管。Musk先生觉得奥巴马总统理解了AI的危险,但监管从未出现。

41. 尽管遭遇了这些挫折,Musk先生仍然继续倡导安全的AI实践。2015年,看起来Musk先生可能找到了一个理解他对AI的担忧,并希望将第一个AGI保持在像Google这样的私人公司手中的人:被告Sam Altman。

42. 当时,Altman先生是硅谷初创公司加速器Y Combinator的总裁。在此之前,Altman先生参与了各种创业项目。

43. Altman先生似乎也分享了Musk先生对AI的担忧。在2014年以来的公开博客文章中,Altman先生表示,如果制造出来,AGI将“成为技术发展史上最大的突破”。Altman先生指出,有许多公司正在向实现AGI的目标迈进,但他承认了一个不幸的现实,那就是“好的公司对此非常保密”。

44. 2015年2月25日,Altman先生也表达了他对所谓的“超人类机器智能”的发展的担忧,他认为这“可能是对人类持续存在的最大威胁”,并强调“作为一个被编程为生存和繁殖的人,我觉得我们应该对抗它。”此外,Altman先生批评了那些认为“超人类机器智能”危险但又认为它“永远不会发生或肯定还很遥远”的人,他指责他们“思维散漫,危险”。

45. 的确,在2015年3月初,Altman先生赞扬了政府监管的重要性,作为确保AI安全创建的一种手段,并建议“一群非常聪明的人拥有大量的资源”可能涉及“以某种方式参与的美国公司”将最有可能首先实现“超人类机器智能”。

46. 那个月晚些时候,Altman先生联系了Musk先生,询问他是否有兴趣起草一封关于AI的公开信给美国政府。两人开始准备一封信,并开始接触科技和AI领域的有影响力的人签名。不久,整个行业就听到了这封信的传闻。

47. 例如,在2015年4月,Hassabis先生联系了Musk先生,告诉他他从多个来源听说Musk先生正在起草一封致总统的信,呼吁对AI进行监管。Musk先生向Hassabis先生辩护AI的监管观点,他说:“如果做得好,它可能会在长期内加速AI的发展。如果没有公众对监管监督的信任,很可能会出现一个AI造成大量伤害,然后AI研究被禁止,因为它对公共安全构成威胁的情况。”

48. Hassabis先生向Musk先生询问关于AI的公开信后的五天,Hassabis先生宣布了Google DeepMind AI伦理委员会的首次会议,这是Google和DeepMind在两年前收购DeepMind时承诺成立的一个委员会。Musk先生被邀请成为该委员会的成员,并提议在加利福尼亚州霍桑的SpaceX主持第一次会议。在第一次会议后,Musk先生明白了这个委员会并不是一个认真的努力,而是试图减缓AI监管的幌子。

49. 这封公开信后来于2015年10月28日发布,并由超过一万一千个人签名,包括Musk先生、Stephen Hawking和Steve Wozniak。

B. OpenAI, Inc.的创立协议

50. 2015年5月25日,Altman先生给Musk先生发了一封电子邮件,写道他一直在“思考是否有可能阻止人类开发AI。我认为答案几乎肯定是不可能的。如果这要发生,我觉得除了Google之外的其他人首先做到这一点会更好。”Altman先生有一个想法:让Y Combinator启动一个AI的“曼哈顿计划”。(不幸的是,这个“曼哈顿计划”可能是一个非常恰当的名字。)他提议“我们可以将其结构化,使技术属于世界,通过某种非营利组织,但如果它成功,那么在其上工作的人可以获得类似创业公司的报酬。显然,我们会遵守/积极支持所有的监管。”Musk先生回应说,“这可能值得一谈。”

51. 在进一步的沟通后,2015年6月24日,Altman先生给Musk先生发了一封详细的关于这个新的“AI实验室”的提案。“其使命将是创造第一个通用AI,并将其用于个人赋权——即,看起来最安全的分布式未来。更一般地说,安全应该是一个一流的要求。”“技术将由基金会拥有,并用于‘世界的利益’。”他提议他们从7-10人的团队开始,然后从那里扩展。他还提出了一个治理结构。Musk先生回应说,“同意所有。”

52. 不久之后,Altman先生开始招募其他人来帮助开发这个项目。值得注意的是,Altman先生找到了Gregory Brockman来帮助这个项目。

53. 2015年11月,Altman先生让Brockman先生通过电子邮件与Musk先生联系。关于这个项目,Brockman先生告诉Musk先生,“我希望我们能够进入这个领域,一个中立的团队希望广泛合作,将对话转向关于人类的胜利,而不是任何特定的团队或公司。(我认为这是我们自我引导成为领先研究机构的最好方式。)对于一个专注于人类而不是任何特定个人或团队利润的中立AI研究团队的可能性,马斯克先生对布罗克曼先生表示他将承诺资助。

54. 马斯克先生为新实验室起了名字,这个名字反映了创始协议:“开放AI研究所”,或简称“OpenAI”。

55. 有了这些创始协议的原则,马斯克先生与阿尔特曼先生和布罗克曼先生联手,正式启动并推出项目。马斯克先生在项目公开宣布之前就积极参与其中。例如,马斯克先生向布罗克曼先生提供了关于员工薪酬方案的建议,与布罗克曼先生分享了他的薪酬和留住人才的策略。

56. 2015年12月8日,OpenAI公司的公司注册证书在特拉华州秘书处备案。该证书以书面形式确认了创始协议:第三条:本公司应为一个非营利性公司,其组织完全出于慈善和/或教育目的,符合1986年修订的内部税收法典501(c)(3)条款,或任何未来美国内部税收法的相应条款。本公司的特定目的是为与人工智能相关的技术的研究、开发和分发提供资金。由此产生的技术将造福公众,公司将寻求在适用的情况下为公众利益开源技术。本公司并非为任何个人的私人利益而设立。... 第五条:本公司的财产永久性地用于第三条所述的目的,本公司的净收入或资产的任何部分都不得用于任何董事、高级职员或成员的利益,或用于任何私人的利益。在本公司解散或清算后,其在支付或预留支付所有债务和负债后剩余的资产应分配给一个非营利基金、基金会或公司,该基金、基金会或公司的组织和运营完全出于慈善、教育和/或宗教目的,并已根据内部税收法典501(c)(3)条款或任何未来联邦税法的相应条款确定其免税地位,或应分配给联邦政府,或分配给州或地方政府,用于公共目的。

57. OpenAI公司于2015年12月11日公开宣布。在宣布中,马斯克先生和阿尔特曼先生被任命为联席主席,布罗克曼先生被任命为首席技术官。宣布强调OpenAI的设计是为了“造福人类”,其研究将“免于财务义务”:OpenAI是一个非营利性的人工智能研究公司。我们的目标是以最有可能造福全人类的方式推进数字智能,不受需要产生财务回报的限制。由于我们的研究免于财务义务,我们可以更好地专注于对人类的积极影响。

C. 马斯克先生在推动OpenAI公司起步中的关键作用

58. 在公开宣布的那天,马斯克先生在一封电子邮件中写道:“我们最重要的考虑是招聘最好的人。”他承诺帮助招聘工作将是他的“绝对首要任务24/7”。他承认:“我们被你们所熟知的组织以荒谬的优势压倒和压制,但我们有正义在身边,这很重要。我喜欢这个赔率。”马斯克先生在努力中发挥了他的联系、地位和影响力。OpenAI公司是马斯克先生赞助的项目,马斯克先生担任联席主席,这对OpenAI公司的招聘工作,特别是面对Google/DeepMind的反招聘,起到了关键作用。如果没有马斯克先生的参与和大量的支持工作和资源——他对创始协议的考虑——OpenAI公司很可能永远无法起步。

59. 最重要的初期雇员之一是首席科学家的角色。阿尔特曼先生、布罗克曼先生和马斯克先生都希望Google的研究科学家伊利亚·苏茨克弗担任这个角色。苏茨克弗博士在是否离开Google并加入项目上犹豫不决,但最终是马斯克先生在OpenAI公司公开宣布的那天给他打的电话,说服了苏茨克弗博士承诺加入项目,成为OpenAI公司的首席科学家。

60. 在接下来的几个月里,马斯克先生积极为OpenAI公司招聘。Google/DeepMind对OpenAI公司的招聘者提出了越来越慷慨的反招聘提议,试图扼杀这个新的创业公司。在2月底,马斯克先生给布罗克曼先生和阿尔特曼先生发了一封电子邮件,再次强调:“我们需要尽一切努力获取顶级人才。让我们提高标准。如果在某个时候,我们需要重新审视现有员工的薪酬,这是可以的。我们要么招到世界上最优秀的人才,要么就会被Deepmind打败。无论需要什么手段来吸引顶级人才,我都可以接受。Deepmind正在给我带来极大的精神压力。如果他们赢了,他们的“一心统治世界”的哲学将带来非常糟糕的消息。他们显然正在取得重大进展,而且他们应该这样做,考虑到他们那边的人才水平。”

61. 马斯克先生不仅仅是利用他的关系和影响力代表OpenAI, Inc.招聘。当他告诉布洛克曼先生和奥特曼先生提高报价,"不惜一切代价获取顶级人才"时,他是那些更高报价的资金提供者。仅在2016年,马斯克先生就向OpenAI, Inc.捐赠了超过1500万美元,比任何其他捐赠者都多。他提供的资金使OpenAI, Inc.能够组建一支顶级人才团队。同样,在2017年,马斯克先生又向OpenAI, Inc.捐赠了近2000万美元,再次超过任何其他捐赠者。总的来说,马斯克先生在2016年至2020年9月期间向OpenAI, Inc.捐赠了超过4400万美元。

62. 此外,通过Musk Industries LLC,马斯克先生租赁了OpenAI, Inc.在旧金山先驱大厦的初始办公空间,并支付了月租费。马斯克先生定期访问OpenAI, Inc.,并在公司的重要里程碑事件中出席,例如2016年第一台DGX-1 AI超级计算机被捐赠给OpenAI, Inc.。马斯克先生会收到关于OpenAI, Inc.的进展更新,并提供他的反馈和建议。

D.奥特曼先生和布洛克曼先生反复确认创始协议

63. 2017年,布洛克曼先生和其他人建议将OpenAI, Inc.从非营利组织转变为营利公司。经过几周的沟通,马斯克告诉布洛克曼、Sutskever博士和奥特曼,“要么自己去做点什么,要么继续以非营利的方式运营OpenAI。在你们做出坚定的留下或我只是一个愚蠢的人,实际上是为一家创业公司提供免费资金的决定之前,我将不再资助OpenAI。讨论结束。”

64. 作为回应,奥特曼先生告诉马斯克,“我对非营利结构仍然充满热情!”最终,布洛克曼先生和Sustkever博士向马斯克表示,他们也决定继续非营利结构,并将在未来一年致力于筹集资金以支持非营利组织。

65. 2018年2月21日,马斯克先生辞去了OpenAI, Inc.的联席主席职务。然而,马斯克先生继续依赖并进一步实施创始协议,向OpenAI, Inc.做出贡献。例如,2018年,马斯克先生向OpenAI, Inc.捐赠了大约350万美元。他还继续从布洛克曼、Sutskever博士和奥特曼那里接收关于OpenAI, Inc.的更新。

66. 2018年4月,奥特曼先生向马斯克发送了一份OpenAI宪章草案,并征求他的反馈。草案描述了OpenAI的使命,即确保AGI“造福全人类”。它声明,“我们承诺使用我们对AGI部署的任何影响力,确保它被用于全人类的利益,并避免使AI或AGI对人类造成伤害或过度集中权力。我们的首要责任是对人类。我们预计需要动员大量资源来实现我们的使命,但我们将始终谨慎行事,以最小化可能妨碍广泛利益的利益冲突。”

67. 2019年3月11日,OpenAI, Inc.宣布将创建一个营利子公司:OpenAI, L.P。潜在投资者在摘要条款表的顶部被通知了一个“重要警告”,即营利实体“存在的目的是推进OpenAI Inc.(非营利组织)的使命,确保安全的人工普适智能得到开发并造福全人类。普通合伙人对这个使命和OpenAI Inc.宪章中提出的原则的责任优先于产生利润的任何义务。”因此,投资者被明确告知,“最好将对OpenAI LP的任何投资视为捐赠。”

68. 在公告之后,马斯克先生联系奥特曼先生,要求他“明确表示我在OpenAI的营利部门没有任何财务利益。”然而,马斯克先生继续支持OpenAI, Inc.,这个非营利组织,在2019年又捐赠了348万美元。

69. 2020年9月22日,OpenAI宣布将其部分预AGI技术独家授权给微软。与创始协议一致,OpenAI的网站声明,AGI,它描述为“在大多数经济价值工作中超越人类的高度自主系统”“被排除在IP许可和其他商业条款之外。”微软,只适用于预AGI技术。”然而,OpenAI的董事会“决定我们何时达到AGI。”

E. OpenAI的公司结构变化

70. 在OpenAI, L.P.宣布之后的几年里,OpenAI的公司结构变得越来越复杂。OpenAI, L.L.C.于2020年9月17日在特拉华州成立。OpenAI, L.L.C.的唯一成员是OpenAI OpCo, LLC。

71. OpenAI OpCo, LLC于2018年9月19日在特拉华州成立,其唯一成员是OpenAI Global, LLC。

72. OpenAI Global, LLC于2022年12月28日在特拉华州成立。据了解,OpenAI Global, LLC,就像OpenAI, L.P.一样,是一个有上限的营利实体。OpenAI Global, LLC有两个成员:微软公司和OAI Corporation, LLC。

73. OAI Corporation, LLC是在特拉华州成立的有限责任公司。OAI Corporation, LLC的唯一成员是OpenAI Holdings, LLC。

74. OpenAI Holdings, LLC于2023年3月17日在特拉华州成立,有多个成员,包括OpenAI, Inc.,Aestas, LLC和各种个人成员。

75. 据了解,OpenAI, Inc.通过其一般合伙人OpenAI GP, L.L.C.管理OpenAI, L.P.和OpenAI Global, LLC,该公司于2018年9月19日在特拉华州注册为有限责任公司。OpenAI GP, L.L.C.完全由OpenAI, Inc.(非营利组织)拥有,并由非营利组织的董事会控制。根据OpenAI的章程,董事会对股东没有任何信托责任;相反,其唯一的信托责任是对人类。

76. 据了解,至少OpenAI, L.P.和OpenAI GP LLC最初是为了促进和资助OpenAI, Inc.的非营利使命而设立的,这一使命在创始协议中有所规定。

F. OpenAI技术的发展——从AI到AGI

77. OpenAI的初步工作大体上沿袭了DeepMind的步伐。OpenAI使用强化学习来玩游戏。然而,OpenAI参与的不是象棋,而是Dota 2,这是一个策略性的电子游戏,比象棋有更多的移动部分。OpenAI的团队迅速构建了一个新的模型,击败了卫冕的世界冠军团队,证明了“自我强化学习可以在困难的任务上达到超人的表现”。

78. 与此同时,在谷歌,一个名为Transformer的算法解决了深度学习在理解长序列文本中遇到的许多问题。这个算法,是一个“大型语言模型”的例子,被开发出来将文本从一种语言翻译成另一种语言,它通过在源语言中的词之间形成连接,并将这些连接映射到目标语言。

79. OpenAI的研究人员继续这项研究,并迅速产生了另一个惊人的结果:通过使用谷歌Transformer架构的前半部分,一个深度神经网络可以在大量文本上进行预训练,并用来生成新的文本。2018年1月,OpenAI发布了这个生成预训练Transformer(GPT)的源代码和训练模型,以及一篇详细的论文,描述了模型及其能力。

80. 2019年,OpenAI发布了第二代模型,GPT-2。发布时再次附带了一篇详细的论文,描述了模型,并指出与以前的模型不同,这些模型需要在特定任务上进行训练,“当一个大型语言模型在足够大且多样化的数据集上进行训练时,它能够在许多领域和数据集上表现良好。”这些模型证明自己与以前的AI系统非常不同。而不是训练系统执行特定的任务,他们可以简单地“要求”以自然语言执行新的任务。

81. 如创始协议所设想的,OpenAI公开发布了GPT-2的完整版本。值得注意的是,尽管“人们发现GPT-2的输出令人信服”,“GPT-2可以被微调用于滥用”,并且“检测(GPT生成的文本)是具有挑战性的”,OpenAI仍然发布了完整的开放版本,希望它“将对未来强大模型的开发者有用”。这次发布附带了一篇由OpenAI科学家以及独立的社会和技术科学家共同撰写的详细论文。这篇论文解释了公开发布模型相比保持封闭所带来的许多好处。

82. 他们的出版物确实对未来强大模型的开发者有所帮助。整个社区涌现出来,以增强和扩展OpenAI发布的模型。这些社区扩展到开源、草根努力和商业实体等。

83. 在2020年,OpenAI宣布了其模型的第三个版本,GPT-3。它使用了“1750亿个参数,比任何以前的非稀疏语言模型多10倍”。再次,OpenAI通过发布一篇研究论文来宣布这个模型的开发,描述了其完整的实现,供其他人建立。

84. 在2022年,Google的研究人员利用这些结果,展示了一个小的改变,称为链式思考提示,可以使“大型语言模型进行复杂的推理”。东京大学和Google的研究人员迅速扩展了Google的结果,展示了OpenAI的GPT-3可以像人类一样,通过简单地在每个答案前添加“让我们一步一步地思考”,来对一个全新的问题进行推理。

85. 可以看到通向人工生成智能的路径。并且,通向它的时间线正在大幅压缩。

86. 在2023年3月14日,OpenAI发布了其模型的新一代,GPT-4。这一代不仅能够推理,而且在推理方面比一般人更好。GPT-4在统一律师考试中得分在90%的百分位数。它在GRE口语评估中得分在99%的百分位数。它甚至在高级侍酒师考试中得到了77%的分数。根据OpenAI自己的客观衡量标准,GPT-4已经能够在各种经济有价值的任务上超越人类的智能。

87. 这个发展并没有在研究社区中被忽视。在一篇名为“人工通用智能的火花:GPT-4的早期实验”的详细分析中,微软的研究人员指出,“GPT-4可以解决新的和困难的任务,包括数学、编程、视觉、医学、法律、心理学等,而不需要任何特殊的提示。而且,在所有这些任务中,GPT-4的表现都非常接近人类的表现,而且经常大大超过之前的模型,如基于GPT-3.5的ChatGPT。”

88. 他们将GPT-4的表现与基于GPT-3的系统的表现进行了比较,发现“GPT-4的输出与GPT-3的输出无法比较”。在数学问题上,他们显示,“GPT-4给出的解决方案是正确的,而且论点是有道理的,而基于GPT-3的ChatGPT给出的解决方案是错误的,这反映出(如果是人的话)对函数反转概念的理解不足。”在另一个例子中,他们显示,“GPT-4给出了正确的解决方案,而ChatGPT开始时就在没有明确方向或目的的情况下重新排列了术语,并最终得出了错误的解决方案。”

89. 微软自己的科学家承认GPT-4“达到了一种通用智能的形式”,并且“鉴于GPT-4的能力的广度和深度,我们相信它可以合理地被视为一个早期(尽管仍然不完整)的人工通用智能(AGI)系统。”

G. 2023年违反了创始协议

90. 达到了AGI的阈值,根据创始协议,他们应该为了人类的利益而开发,而不是为了任何盈利公司或个人利益,被告却从他们的使命中大胆地偏离,违反了创始协议。GPT-4是一个完全封闭的模型。GPT-4的内部设计仍然是一个秘密,没有发布任何代码。OpenAI没有发布一篇描述其内部设计的任何方面的论文;它只是发布了一些关于其性能的新闻稿。GPT-4的内部细节只有OpenAI和微软知道。因此,GPT-4与“开放的AI”恰恰相反。而且,它是出于专有商业原因而封闭的:如果OpenAI按照其要求将技术免费提供给公众,微软将无法通过向公众销售GPT-4来赚取大量财富。与创始协议相反,被告选择将GPT-4用于人类的利益,而不是作为专有技术来最大化利润,这实际上是世界上最大的公司。此外,OpenAI的整个开发现在都笼罩在秘密中,公众只有谣言和孤立的通信片段来了解可能会发布什么。

91. 研究人员指出,基于GPT架构的AI的剩余限制之一是它们一次生成一部分输出,不能“回溯”。这些问题在人工智能研究中已经出现过,并且在其他应用中已经得到了大部分解决。在路径和迷宫寻找中,AI必须能够找到正确的路径,尽管在此过程中存在死胡同。执行此操作的标准算法被称为“A*”(读作A-star)。

92. 路透社报道称,OpenAI正在开发一种名为Q*的神秘算法。虽然Q*的具体内容尚不清楚,但路透社报道称,几名OpenAI的员工写了一封信,警告Q*的潜在威力。看来Q*现在或将来可能成为OpenAI开发的人工通用智能的一个更清晰、更醒目的例子。作为一个AGI,它明确地超出了OpenAI与微软的许可范围,必须为大众的利益提供。

93. 对于与微软的许可,OpenAI, Inc.的董事会决定OpenAI是否达到了AGI,在下面详细描述的一系列令人震惊的事件中,OpenAI, Inc.的大部分董事会成员在2023年11月22日被迫辞职,他们的接替者据信是由Altman先生和微软精心挑选的。

94. 在2023年11月17日,OpenAI, Inc.的董事会解雇了Altman先生。OpenAI在一篇博客文章中宣布,Altman先生已被解雇,他的“离职是董事会经过深思熟虑的审查过程的结果,该过程得出的结论是,他在与董事会的沟通中并不总是坦诚,这阻碍了董事会行使其职责。董事会对他继续领导OpenAI的能力已经失去了信心。”

95. Brockman先生也被从董事会中移除,但被告知他将保留在OpenAI的职位。

96. 当时,董事会由Helen Toner、Adam D’Angelo、Tasha McCauley、Sutskever博士、Brockman先生和Altman先生组成。除了在董事会任职外,Toner女士还是AI治理中心(GovAI)的研究员和顾问,以及乔治城安全与新兴技术中心的战略总监。McCauley女士是RAND公司的高级管理科学家,这是一家专门从事公共政策决策的非营利机构。她也是GovAI的顾问。D’Angelo先生——Altman先生复职后唯一留下的董事会成员——是一位科技CEO和创业者。

97. 在OpenAI, Inc.的董事会中包括多位学者和公共政策专家,他们在AI政策方面有深厚的经验,其中大多数人在公司中没有财务利益,这是有意为之。这种由财务上无利害关系的董事会成员组成,他们有强烈的公共服务记录,确保董事会会把非营利组织的主要受益者——人类——放在财务成功之前。这种保障措施是为了进一步实现OpenAI, Inc.的非营利使命和创始协议:安全地创建能够造福人类的AGI,而不是追求盈利公司的金钱利益。

98. 据了解,Altman先生被解雇部分原因是OpenAI在实现AGI方面的突破。实际上,新闻报道暗示OpenAI董事会成员和高管之间存在分歧,关于安全问题和OpenAI下一代Q*可能带来的潜在威胁。

99. Altman先生被解雇的消息迅速传开。在董事会宣布解雇Altman先生后,Brockman先生宣布他将与Altman先生一起离开OpenAI。

100. 当微软CEO Satya Nadella得知Altman先生被解雇的消息时,他据说非常愤怒。作为OpenAI盈利部门49%的股东,Nadella先生认为在解雇Altman先生之前应该咨询微软。然而,此时,除了Altman先生,OpenAI, Inc.的董事会与微软没有任何关系,也没有对盈利部门的投资者承担任何信托责任。相反,据了解,Altman先生是微软和OpenAI, Inc.之间的主要联络人。

101. Nadella先生邀请Altman先生和Brockman先生领导一个新的微软AI研究实验室,不受OpenAI, Inc.的人道主义使命的约束。Nadella明确表示,离开OpenAI的员工在微软的新实验室将受到欢迎,并保持相同的薪水。

102. 微软有信心,通过其在OpenAI盈利部门的大量所有权,如果公司停止存在,它可以完全隔离OpenAI, Inc.的研究。事实上,在Altman先生被解雇后不久的一次采访中,Nadella先生表示:我们对自己的能力非常有信心。我们拥有所有的IP权利和所有的能力。如果OpenAI明天消失,我真的不希望我们的任何客户为此担心,因为我们有所有的权利来继续创新。不仅仅是为了提供产品,我们可以自己去做我们在合作中所做的事情。我们有人,我们有计算能力,我们有数据,我们什么都有。

103. 尽管微软曾表示他们有能力在没有OpenAI的情况下运作,但微软从未放弃其计划,要求恢复Altman先生作为OpenAI, Inc.的CEO的地位。在Altman先生被解雇的几天后,OpenAI, Inc.的董事会面临来自律师和主要股东(包括微软)的压力,要求恢复Altman先生的职务。

104. Toner女士是恢复Altman先生职务的努力中的特定目标。在这些努力中,OpenAI的一名律师告诉Toner女士,如果由于Altman先生的解雇导致OpenAI失败,她和董事会可能面临违反对投资者的受托责任的指控。

105. 然而,OpenAI, Inc.的董事会从未对投资者承担过受托责任。事实上,所有在盈利部门的投资者都被告知,公司对其使命的责任优先于对其投资者的责任,OpenAI, Inc.的网站明确表示,它只对人类承担受托责任。

106. Toner女士,她将律师的行为描述为恐吓策略,认为Altman先生的持续解雇实际上会推进公司的使命,通过提升人类的安全而不是利润。然而,这并没有阻止股东和Altman先生推动他的复职。

107. 此外,微软对OpenAI, Inc.及其董事会具有相当大的强制力。在Altman先生被解雇的期间,CEO Nadella对微软与OpenAI的关系做了以下描述:我们在那里。我们在他们下面,他们上面,他们周围。我们做内核优化,我们构建工具,我们构建基础设施。所以我认为很多工业分析师都在说,“哇,这真的是微软和OpenAI之间的联合项目。”实际上,我们在所有这些方面都非常自给自足。

108. 此外,在解雇时,微软只支付了其向OpenAI承诺的100亿美元投资的一小部分,这给微软对“独立”的非营利董事会产生了严重的影响力。此外,如果微软停止提供OpenAI依赖的云计算系统,公司将无法运作。

109. Altman先生和微软对董事会的压力一直持续到11月21日,当时Altman先生被重新任命为OpenAI, Inc.的CEO,Brockman先生重新加入成为总裁。Altman先生回归的条件之一是要求Toner女士、McCauley女士和Sutskever博士从董事会辞职。

110. 根据信息和信仰,Altman先生回归后,他挑选了一个新的董事会,这个董事会缺乏类似的技术专长或者在AI治理方面的实质性背景,这是之前的董事会特意设计的。D’Angelo先生,一位科技CEO和创业家,是Altman先生回归后唯一留在董事会的前任董事会成员。新的董事会成员在以利润为中心的企业或政治方面的经验比在AI伦理和治理方面更丰富。他们也被报道为“Altman的大粉丝”。新的董事会成员中有两位是Bret Taylor和Larry Summers。Taylor先生在硅谷并不陌生,他在各种湾区的盈利驱动的项目中都有深入的参与。2024年2月14日,Taylor先生和前谷歌高管Clay Bavor启动了一个专注于为企业构建AI聊天机器人的创业公司。Summers博士是一位经济学家,据信息和信仰,他在2023年11月之前没有在基于人工智能的项目中工作的经验。微软还获得了一个观察员席位,可以密切关注其名义上的非营利金鸡母。

111. 随着Altman先生的复职和董事会的重组,OpenAI的公司结构在一夜之间崩溃。这个公司结构曾被设计为非营利部门、营利部门、董事会和CEO之间的制衡系统,以确保非营利使命得以实现。OpenAI, Inc.曾经精心打造的非营利结构被一个纯粹以利润为驱动的CEO和一个在AGI和AI公共政策方面技术专长较差的董事会所取代。董事会现在有一个观察员席位专门为微软保留。随着这次重组,OpenAI, Inc.放弃了其非营利使命,即为广大人类的利益开发AGI,从而防止大型营利公司过度集中大量权力。

112. OpenAI, Inc.董事会在AI方面的技术专长、中立性和对OpenAI, Inc.非营利使命的承诺对OpenAI, Inc.的使命尤为重要,因为董事会决定OpenAI是否已经获得AGI,以便执行其与微软的许可协议。这意味着董事会负责确定OpenAI最强大和最先进的技术是否实际上被排除在微软的独家许可范围之外。考虑到微软在保持公众无法进入的大门上的巨大经济利益,OpenAI, Inc.新任命的、有冲突的、顺从的董事会将有充分的理由推迟确认OpenAI已经达到了AGI的水平。相反,OpenAI的AGI的实现,就像《安妮》中的“明天”,总是在一天之后,确保微软将获得OpenAI的最新技术许可,而公众将被排除在外,这与创始协议的初衷完全相反。

113. OpenAI的行为可能对硅谷产生重大影响,如果被允许,可能代表科技初创公司的范式转变。重要的是要反思这里发生的事情:一个非营利性的初创公司为了开发AGI技术以造福公众,筹集了数千万美元的捐款,而在即将达到公司创建的目标之前,该公司已经成为世界最大公司的封闭、盈利的合作伙伴,从而使被告人获得了个人财富。如果这种商业模式有效,它将彻底改变加利福尼亚和其他地方的风险投资方式。而不是从一开始就作为一个盈利实体,"聪明的"投资者会建立非营利组织,使用税前捐款来资助研发,然后一旦他们的技术被开发和证明,就会将产生的IP资产转移到一个新的盈利企业,以丰富自己和他们的利润最大化的公司伙伴。这不应该是加利福尼亚或者这个国家的法律应该如何运作,这也不应该是第一个持相反观点的法院。

114. 为了进一步理解为什么这很重要,如果OpenAI的新商业模式有效,那么每一美元投资者通过向非营利组织捐款“投资”,投资者可以从州和联邦政府那里得到大约50美分的减税,所以他们每投资1美元的净成本只有50美分。然而,使用OpenAI的新商业模式,他们可以获得与那些以传统方式投资于盈利公司的人相同的“盈利”上涨,因此不会立即得到政府和最终公众资助的税收减免。从投资的角度来看,与使用新的OpenAI商业模式的实体竞争就像打篮球,其中其他队的篮筐值两倍的分数。如果这个法院确认OpenAI在这里的行为,任何希望在硅谷保持竞争力的初创公司基本上都需要遵循这个OpenAI的剧本,这将成为初创公司的标准操作程序,对合法的非营利组织、政府的税收和最终的加利福尼亚人民和其他地方的人民造成损害。值得注意的是,OpenAI的盈利部门最近的估值接近800亿美元。

H. 2023年11月至今:Altman的OpenAI

115. 公众仍然对董事会的“审议审查过程”揭示了什么,导致了Altman先生最初的解雇,一无所知。然而,对于Musk先生和广大公众来说,有一件事是清楚的:OpenAI已经放弃了其“不可撤销”的非营利使命,追求利润。许多领导者和知识分子公开评论了OpenAI变成“封闭的,盈利的AI”的讽刺和悲剧。

116. 例如,2023年11月29日,麻省理工学院的经济学家在洛杉矶时报上发表了对OpenAI新的以利润为导向的指令的担忧。他们的话是,“破坏和无控制的增长已经成为科技行业的宗教,Altman一直是其最忠诚的高级祭司。”经济学家强调,新的董事会更有可能允许Altman尽快扩大OpenAI的规模,不管社会成本有多大。

117. 公民公众的总裁,一个非营利的消费者倡导组织,今年早些时候写了一封公开信给加利福尼亚州总检察长Rob Bonta,对OpenAI的盈利子公司是否对非营利组织施加了不适当的控制,或者非营利组织的目的是否已经在Altman和微软的指导下转向了盈利,表示了担忧。信中建议,如果非营利组织放弃了其原始的使命,它应该被解散,收益应该去到另一个慈善企业。

118. 2024年1月的一项WIRED调查发现,OpenAI最近也关闭了公众访问以前可用的“关键文件”的权限。与OpenAI最初的透明度承诺一致,OpenAI的IRS文件自成立以来就表明,公众可以查看其管理文件、财务报表和利益冲突规则的副本。然而,当WIRED请求这些文件时,OpenAI表示已经改变了其政策。因此,虽然OpenAI一直在宣扬其对透明度的承诺,公众无法获取揭示2023年11月事件的信息。

119. 获取OpenAI的文件可以告知公众它是否改变了其治理方式以安抚微软和其他股东。至少,必须进行一些改变以适应微软在董事会的席位,现在Altman先生据报道正在与中东投资者进行讨论,以筹集高达7万亿美元的资金,以努力开发全球AI芯片制造工厂的网络。如果微软的100亿美元足以让它在董事会上获得一个席位,那么人们只能想象这些新的潜在投资可能会给投资者带来多大的影响力。当其中一个潜在的捐赠者是阿联酋的国家安全顾问,而美国官员由于阿联酋与中国的关系而感到担忧时,这尤其令人不安。此外,Altman先生曾被引述讨论将阿联酋变成一个“监管沙盒”,在那里测试AI技术的可能性。

120. 此外,获取OpenAI的利益冲突政策对于揭示董事会控制Altman先生利用OpenAI推动自己的经济利益的能力非常重要,到目前为止,这些利益似乎没有受到任何检查。例如,2019年Altman先生担任CEO时,OpenAI签署了一份意向书,打算从Altman先生大量投资的一家初创公司购买价值5100万美元的芯片。

121. 虽然OpenAI, Inc.曾经是基于与公众的开放沟通进行安全、负责任的AGI开发的先驱,但现在它已经关闭了大门,将其营利子公司的最大投资者带到了一个只对人类负有唯一信托责任的董事会,并继续秘密地朝着可能对人类产生灾难性影响的利润为中心的未来前进。

122. Musk先生与Altman先生和Brockman先生一起创立并资助了OpenAI, Inc.,以换取并依赖创始协议,以确保AGI将造福人类,而不是营利公司。然而,随着2023年的事件的发展,他对OpenAI, Inc.的贡献已经被扭曲为造福被告和世界上最大的公司。这是对创始协议的严重背叛,颠覆了该协议,并颠覆了OpenAI, Inc.的使命。想象一下,向一个声称保护亚马逊雨林的非营利组织捐款,但然后非营利组织创建了一个营利的亚马逊伐木公司,使用捐款的成果清除雨林。这就是OpenAI, Inc.的故事。

第一项诉讼原因

违反合同 针对所有被告

123. 原告重新陈述并引用本投诉中对其违反合同索赔所必需的段落。

124. 从OpenAI, Inc.的创立于2015年到2020年9月,原告为创始协议提供了数千万美元的贡献,提供了关于研究方向的重要建议,并在招募世界级人才到OpenAI, Inc.中发挥了关键作用,即:OpenAI, Inc. (a) 将是一个为人类利益而不是为寻求最大化股东利润的营利公司开发AGI的非营利组织;并且 (b) 将是开源的,只平衡反向的安全考虑,不会因专有商业原因而保持其技术的封闭和秘密。这个创始协议在OpenAI, Inc.的创始公司章程和原告与被告之间多年期间的许多书面通信中得到了确认,例如:

a. “本公司的特定目的是为与人工智能相关的技术的研究、开发和分发提供资金。由此产生的技术将造福公众,公司将寻求在适用时为公众利益开源技术。本公司并非为任何人的私人利益而设立。”附件1第1页。

b. Altman先生说:“使命将是创建第一个通用AI,并用它进行个人赋权——即,看起来最安全的未来的分布式版本。更一般地说,安全应该是一项一流的要求。. . . 技术将由基金会拥有,并用于‘世界的利益’[。]”原告回答:“同意所有。”附件2第1页。

125. 被告以多种独立的方式违反了创始协议,包括但不限于:

a. 将GPT-4(微软自家的科学家已经写道,可以“合理地视为人工智能(AGI)系统的早期(尽管仍不完整)版本”)独家授权给微软,尽管他们同意OpenAI将为人类福利开发AGI,而不是为了追求最大化股东利润的营利公司的私人商业利益,更不用说世界上最大的公司了。

b. 未向公众披露GPT-4的架构、硬件、训练方法和训练计算等细节,还在公众和GPT-4之间设置了“付费墙”,要求按token付费使用,以推动被告和微软自己的私人商业利益,尽管他们同意OpenAI的技术将是开源的,只平衡反向的安全考虑。

c. 允许微软,一家上市的营利公司,在OpenAI, Inc.的董事会上占有一席之地,并对OpenAI的非营利活动施加过度的影响和控制,包括例如决定是否以及在何种程度上使OpenAI, Inc.的技术免费开放给公众,以及决定OpenAI是否已经获得AGI。

126. 由于被告的违约行为,原告已经遭受了损害,其金额目前尚不清楚,但远远超过了本法院的管辖最低限额35000美元,如果必要的话,将在审判中证明。

127. 原告还寻求并有权要求被告履行合同义务。

第二项诉讼原因

对所有被告的承诺不履行

128. 原告重新陈述并引用本投诉中对他的承诺不履行索赔所必需的段落。

129. 为了诱使原告在多年的时间里向OpenAI, Inc.捐赠数百万美元,并诱使他投入大量时间和其他资源来推动OpenAI, Inc.的发展,被告反复向原告承诺,包括书面承诺,OpenAI (a) 将是一个为人类福利开发AGI的非营利组织,而不是一个寻求最大化股东利润的营利公司;(b) 将是开源的,只平衡反向的安全考虑,不会因专有商业原因而保密其技术。

130. 这样做,被告合理地预期原告会(如他所做的那样)依赖他们的承诺,并向OpenAI, Inc.提供资金、时间和其他资源。

131. 原告合理地依赖被告的虚假承诺,最终向OpenAI, Inc.提供了数千万美元的资金,以及他的时间和其他资源,条件是OpenAI将始终是一个致力于为公众利益创造安全、开源AGI的非营利组织,只是然后OpenAI放弃了其“不可撤销”的非营利使命,停止向公众提供基本信息,而是将其AGI算法独家授权和许可给世界上最大的营利公司,这正好与被告对原告的承诺完全相反。

132. 只有通过执行被告的反复承诺,才能避免不公正。如果不授予具体执行权,那么被告必须至少偿还等于原告被挪用的贡献的金额,以及创始协议的预期第三方受益人受到的损害的金额,这个金额目前尚不清楚,如果必要的话,将在审判中证明,但这个金额远远超过了本法院的管辖最低限额35000美元。

第三项诉讼原因

违反信托责任 针对所有被告

133. 原告重申并引用本投诉中对其违反信托责任索赔所必需的段落。

134. 根据加利福尼亚法律,被告对原告有信托责任,包括有义务将原告的贡献用于其所作出的目的。例如,Cal. Bus. & Prof. Code § 17510.8。被告多次违反对原告的信托责任,包括:

a. 使用从原告那里收到的资金,以及使用这些资金资助的知识产权和衍生作品,用于直接违反双方协议的字面和明确意图的“盈利”目的,从而违反被告对原告的合同承诺,也违反被告对双方协议的明确预期的第三方受益人,即公众的承诺。例如,被告导致GPT-4,微软自己的科学家已经写过,可以“合理地被视为人工普适智能(AGI)系统的早期(尽管仍不完整)版本”,被微软独家授权,这违反了OpenAI, Inc.不可撤销的非营利使命,即为人类福利开发AGI。

b. 未向公众披露,包括GPT-4的架构、硬件、训练方法和训练计算等细节,并通过在公众和GPT-4之间设置“付费墙”,要求按token付费使用,以推动被告和微软自己的私人商业利益,尽管同意OpenAI的技术将是开源的,只平衡反向的安全考虑。

c. 允许微软,一家上市的营利性公司,在OpenAI, Inc.的董事会上占有一席之地,并对OpenAI, Inc.的非营利活动施加过度的影响和控制,例如,决定是否以及在何种程度上使OpenAI的技术免费向公众开放。

135. 由于被告违反信托责任,原告和创始协议的明确预期的第三方受益人已经遭受了损害,其金额目前未知,但远远超过本法院的管辖最低限额35000美元,如果必要,将在审判中证明。

136. 原告寻求并有权要求被告履行其合同义务,作为对被告违反信托责任的补救。

第四项诉讼原因

不公平的商业行为 - Cal. Bus. & Prof. Code §§ 17200等 针对所有被告

137. 原告重申并引用本投诉中对其不公平商业行为索赔所必需的段落。

138. 加利福尼亚商业和职业法典第17200节等规定,任何从事、已经从事或计划从事不公平商业行为的个人或实体都可能被禁止。

139. 被告通过在虚假的前提下向原告和其他人募集捐款,并且所有这些资金将用于创始协议中阐述的基本目的,从而参与了不公平的竞争和其他不公平的商业行为。

140. 如果没有被告的不公平竞争和其他不公平的商业行为,原告就不会向OpenAI, Inc.捐款或做出其他贡献。

141. 由于被告的行为,原告已经被欺骗,公众的其他成员可能会被欺骗。

142. 在参与上述的不公平竞争行为时,被告至少违反了Cal. Bus. & Prof. Code § 17510.8。

143. 由于被告的这些和其他行为,原告已经遭受了损害,并有权收回被告收到的所有收益和补偿。由于这些不公平竞争和其他不公平商业行为,原告有权要求被告及其合谋者赔偿。

144. 原告有权要求被告退还和/或返还在从事此类行为期间收到的所有款项,此外,根据商业与职业法典§ 17200等规定,原告有权要求预判利息。原告进一步要求禁止被告在未来再次进行此类活动,并要求下令强制执行特定行为。

第五项诉讼原因

会计 针对所有被告

145. 原告重新陈述并引用本投诉中对其会计索赔所需的段落。

146. 如上所述,多年来,被告以OpenAI, Inc.将永久保持为非营利性质,致力于为公众利益创造安全的AGI,并且所有捐赠资金将按照这一“不可撤销”的承诺使用的承诺和保证,向原告募集了数千万美元的捐款。据了解和信任,被告也根据同样的陈述向其他人募集了数千万美元的捐款。

147. 与原告资金捐赠的明确目的相反,如本文所述,被告使用了从原告那里收到的款项,以及由这些款项资助的知识产权和衍生作品,用于“营利”目的,包括为私人个人和可能的个人被告自身的利益,这直接违反了双方协议的字面和明确意图。

148. 由于被告掌握了与原告和其他人向OpenAI, Inc.捐赠的慈善捐款以及由这些款项资助的知识产权和衍生作品的使用情况的财务信息,原告目前无法确定他在资产的使用、分配或分发中的权益,除非进行会计。因此,原告有权要求进行会计。

诉求:

因此,原告请求对被告的判决如下:

A. 下令强制执行被告的重复合同承诺,包括但不限于,

i. 下令要求被告继续遵循OpenAI的长期做法,将在OpenAI开发的AI研究和技术向公众开放,以及

ii. 下令禁止被告利用OpenAI, Inc.或其资产为个人被告、微软或任何其他特定个人或实体的财务利益服务;

B. 对GPT-4是否构成人工通用智能并因此超出OpenAI对微软的许可范围进行司法确定;

C. 对Q*和/或其他OpenAI正在开发的下一代大型语言模型是否构成人工通用智能并因此超出OpenAI对微软的许可范围进行司法确定;

D. 与上述A至C项一致并实施的禁令救济;

E. 根据商业与职业法典§ 17200等规定,对被告在从事上述不公平和不当行为期间收到的所有款项进行退还和/或返还的奖励,此外还有预判利息和罚款;

F. 对原告和其他人向OpenAI, Inc.捐赠的资金,以及由同样资金资助的知识产权或衍生作品,以及被告为个人利益或任何个人或第三方实体的利益使用同样资金的会计;

G. 在审判中证明的一般、赔偿和惩罚性损害赔偿,原告将把其中的每一项捐赠给非营利组织或慈善机构;

H. 根据加利福尼亚民事诉讼法典§ 1021.5,要求律师费;

I. 要求最高法定利率的预判和判决后利息;以及

J. 要求法院可能认为公正和适当的其他和进一步的救济。

要求陪审团审判

原告在此要求所有适合由陪审团审判的问题、索赔和/或诉因进行陪审团审判。

日期:2024年2月29日 IRELL & MANELLA LLP

由:

Morgan Chu Alan Heinrich Iian Jablon Abigail Sellers Justin Koo Henry White 代表原告Elon Musk的律师

附件一

SR 20151247198 -文件编号 5902936 非股份公司的公司注册证书

(12/08/2015 11:21 AM 14154847068 + 13027393812

特拉华州 州务卿

公司部

送达时间:2015年12月8日下午2:22

文件时间:2015年12月8日下午2:22

OPENAI, INC.

第一:公司的名称是"OpenAI, Inc."(以下简称"公司")。

第二:公司在特拉华州的注册办公地址是2711 CenterviJle Road, Suite 400, Wilmington, New Castle County, Delaware 19808。其在该地址的注册代理人是Corporation Service Company。

第三:本公司将是一个非营利公司,其组织的目的完全是为了符合1986年修订的内部税收法案501(c){3)条款或任何未来美国内部税收法的相应条款的慈善和/或教育目的。本公司的特定目的是为与人工智能相关的技术的研究、开发和分发提供资金。由此产生的技术将造福公众,公司将寻求在适用的情况下为公众利益开源技术。公司的组织并非为任何个人的私人利益。为了进一步实现其目的,公司将从事非营利公司可以在特拉华州通用公司法下组织的任何合法行为或活动。

第四:本公司的组织和运营完全是为了在内部税收法案501(c)(3)条款中规定的第三条中设定的目的。本公司的活动的主要部分不应包括进行宣传,或以其他方式试图影响立法,本公司不应参与或干预任何政治竞选(包括发表或分发声明)以支持任何公职候选人。尽管这些条款中有其他规定,公司不得进行任何其他不被允许的活动(a)由一家根据内部税收法案501(c){3)条款或任何未来联邦税法的相应条款免除联邦所得税的公司/组织,或(b)由一家公司/组织,其捐款可以根据内部税收法案170( c )(2)条款或任何未来联邦税法的相应条款扣除。

第五:本公司的财产是不可撤销地用于第三条中规定的目的,本公司的净收入或资产的任何部分都不得用于任何董事、官员或成员的利益,或用于任何私人的利益。在本公司解散或清算时,其在支付或预留支付所有债务和责任后剩余的资产应分配给一个非营利基金、基金会或公司,该基金、基金会或公司的组织和运营完全是为了慈善、教育和/或宗教目的,并已根据内部税收法案501(c)(3)条款或任何未来联邦税法的相应条款确定其免税地位,或者应分配给联邦政府,或者分配给州或地方政府,用于公共目的。

第六:公司不应有任何资本股。

第七:该公司不应有任何成员。

第八:设立者的姓名和邮寄地址如下:

Jonathan Levy

335 Pioneer Way

Mountain View, CA 94041

我,Jonathan Levy,为了在特拉华州的法律下设立一家公司,做出、提交并记录此证书,并证明此处陈述的事实是真实的,我已相应地在此签名。

执行日期:2015年12月8日。

授权官员

Jonathan Levy

附件二

发件人:Elon Musk

发送时间:周三,2015年6月24日 11:06 PM

收件人:Sam Altman

主题:关于AI实验室

同意所有内容

2015年6月24日上午10:24,Sam Altman写道:

1) 我们的使命是创造第一个通用人工智能,并用它来个人赋能——也就是说,分布式的未来版本似乎是最安全的。更一般地说,安全应该是首要要求。

2) 我认为我们最好从7-10人的团队开始,并计划从那里扩展。我们在山景城有一栋不错的额外建筑,他们可以使用。

3) 我认为对于治理结构,我们应该从5个人开始,我建议你和我。这项技术将由基金会所有,并被用于“世界的利益”,在如何应用这一点上不明显的情况下,我们五个人将做出决定。研究人员将有重大的财务上升空间,但这将与他们构建的内容无关,这应该消除一些冲突(我们会给他们支付有竞争力的薪水,并为他们提供YC股权作为上升空间)。我们将就哪些工作应该开源,哪些不应该持续进行对话。在某个时候,我们会找人来管理团队,但他/她可能不应该在治理委员会上。

4)你是否会以治理之外的方式参与?我认为这对于将工作指向正确方向、吸引最优秀的人加入非常有帮助。理想情况下,你可以每月或者随时来和他们谈谈进展。我们通常称YC中以某种有限方式参与的人为“兼职合伙人”(例如,我们曾这样称呼Peter Thiel,尽管此时他非常参与其中),但我们可以称呼你想要的任何称呼。即使你真的不能在上面花时间,但如果你能公开支持,这可能对招聘仍然非常有帮助。

5) 我认为关于监管信的正确计划是等待这个开始进行,然后我可以发布它,并附上类似“现在我们正在做这件事,我一直在思考世界需要什么样的约束来确保安全”的信息。我很乐意把你排除在签署人之外。我也怀疑发布之后会有更多的人愿意支持它。

-Sam

附件三 OpenAI简介(略)