OpenAI恩仇录:权力、信任与AGI的失控边界

Bitsfull2026/04/07 13:1118405

摘要:

OpenAI恩仇录:权力、信任与AGI的失控边界


编者按:本文通过大量未公开文件与深度访谈,复盘了 OpenAI 内部围绕 Sam Altman 的权力与信任危机。从董事会罢免到迅速复职的「政变式反转」,这场风波并非一次偶发事件,而是长期治理冲突的集中爆发。


冲突的核心,在于两套逻辑的持续拉扯:一边是 OpenAI 创立之初以「人类安全优先」为前提的非营利使命,另一边则是随着 AGI 临近与商业化加速,逐步转向以产品、规模与收入为导向的发展路径。在这一过程中,安全承诺被不断弱化,而权力与决策逐渐向少数人集中。


包括 Ilya Sutskever、Dario Amodei 在内的多位核心人物,对 Altman 的质疑集中于信息不透明与策略性表达,认为其领导方式难以支撑对「改变人类命运」的技术进行稳健治理;而其支持者则强调,他在资源整合、资本运作与执行层面的能力,正是 OpenAI 得以迅速扩张的关键。


当技术权力足以影响全球秩序,现有的公司治理结构是否仍然足以约束个人?换言之,在 AI 时代,真正的不确定性,或许不只来自技术本身,而来自掌控技术的人。


以下为原文:



权力与信任:Altman 领导下的治理裂缝


2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 向公司董事会的另外三名成员发送了秘密备忘录。在此之前的数周里,他们一直在私下讨论一个敏感问题:公司 CEO Sam Altman 以及他的副手 Greg Brockman 是否仍然适合继续领导这家公司。



Sutskever 曾把两人视为朋友。2019 年,他还曾在 OpenAI 办公室为 Brockman 主持婚礼,那场婚礼上,甚至还有一只机械手臂充当「送戒指的人」。


但随着他逐渐相信,公司正逼近其长期目标——创造一种在认知能力上可与人类匹敌甚至超越人类的人工智能——他对 Altman 的疑虑也在不断加深。正如他当时对另一位董事所说:「我不认为 Sam 是那个应该把手指放在按钮上的人。」


在其他董事的要求下,Sutskever 与志同道合的同事一起整理出一份约七十页的材料,其中包括 Slack 聊天记录、人力资源文件以及配套的说明文字。部分内容甚至是用手机拍摄的截图,显然是为了避开公司设备的监控。他最终以「阅后即焚」的方式,将这些备忘录发送给其他董事,以确保不会被更多人看到。


「他当时非常害怕,」一位收到材料的董事回忆道。我们查阅了这些备忘录,它们此前从未被完整披露。文件中指控 Altman 曾向高管和董事会成员歪曲事实,并在内部安全协议问题上存在欺瞒行为。其中一份关于 Altman 的备忘录开头列出了一组条目,标题是「Sam 一贯表现出……」,第一条就是:「撒谎」。


许多科技公司都会宣称要「让世界变得更好」,但实际运作却围绕着收入最大化展开。而 OpenAI 的创立初衷,正是要与这种模式有所不同。其创始人,包括 Altman、Sutskever、Brockman 以及 Elon Musk 认为,人工智能可能成为人类历史上最强大、也最具潜在危险的发明之一。在这种「存在性风险」的背景下,公司或许需要一种非常规的组织结构。


OpenAI 最初被设立为一家非营利机构,其董事会的职责,是将「全人类的安全」置于公司成功之上,甚至高于公司的生存本身。CEO 必须具备非同寻常的品格与操守。


正如 Sutskever 所说:「任何参与构建这种可能改变文明的技术的人,都肩负着沉重的责任,承担着前所未有的义务。」但他也指出,「最终坐上这些位置的人,往往是某一类人——渴望权力的人、政治型人物,或者享受权力本身的人。」在一份备忘录中,他对将这项技术托付给一个「只会说别人想听的话的人」表达了担忧。


如果 OpenAI 的 CEO 最终被认定不可靠,那么这个由六人组成的董事会,有权将其解职。一些董事,包括人工智能政策专家 Helen Toner 和企业家 Tasha McCauley,在阅读这些备忘录后,更加坚定了他们此前的判断:Altman 所承担的,是关乎人类未来的职责,但他本人,并不值得信任。


董事会政变:Sam Altman 被解雇


当时,Sam Altman 正在拉斯维加斯观看一场一级方程式比赛,Ilya Sutskever 邀请他与董事会进行一次视频会议,并在会上宣读了一份简短声明,宣布他不再是 OpenAI 的员工。董事会在法律建议下发布了一则对外公告,仅称 Altman 被解职的原因是「在沟通中未能始终保持坦诚」。


这一决定令 OpenAI 的众多投资人和高管震惊不已。向 OpenAI 投资约 130 亿美元的 Microsoft,也是在决定执行前的最后一刻才得知消息。「我当时非常震惊,」微软 CEO Satya Nadella 事后回忆道,「我从任何人那里都问不出更多信息。」他随后联系了 Reid Hoffman(LinkedIn 联合创始人、OpenAI 投资人兼微软董事),后者开始四处打听 Altman 是否犯下了明确的过失。「我当时完全搞不清发生了什么,」Hoffman 对我们说,「我们在找的是挪用公款或性骚扰之类的问题,但我什么都没发现。」


其他商业伙伴同样措手不及。当 Altman 打电话告知投资人 Ron Conway 自己被解雇时,Conway 正与美国众议员 Nancy Pelosi 共进午餐,他当场把手机递给了她。「你最好赶紧离开这里,」她对 Conway 说。


与此同时,OpenAI 正接近完成一笔来自风投机构 Thrive Capital 的重大融资,该机构由 Josh Kushner 创立,也是 Jared Kushner 的兄弟,Altman 与其相识多年。这笔交易将使 OpenAI 估值达到 860 亿美元,并允许许多员工兑现数百万美元的股权收益。Kushner 当时刚结束与音乐制作人 Rick Rubin 的会面,看到 Altman 的未接来电后回拨。「我们立刻进入战斗状态,」他后来回忆说。


被解雇当天,Altman 飞回了自己位于旧金山、价值 2700 万美元的豪宅——那里可以俯瞰整个海湾,曾配有悬挑式无边泳池——并在那里搭建了一个他称为「某种流亡政府」的临时指挥中心。Conway、Airbnb 联合创始人 Brian Chesky,以及以作风强硬著称的危机公关负责人 Chris Lehane,通过视频和电话加入其中,有时一聊就是数小时。Altman 的部分高管团队成员甚至直接在这栋房子的走廊里「扎营」。律师们则在他卧室旁的家庭办公室中驻扎。失眠发作时,Altman 会穿着睡衣在他们身边来回踱步。近期在接受我们采访时,他将被解雇后的这段经历形容为「一种奇怪的恍惚状态」。


在董事会保持沉默的情况下,Altman 的顾问团队开始为其回归构建舆论基础。Lehane 坚称,这次解雇实际上是一场由「有效利他主义者」(一种强调最大化人类整体福祉的思想体系的拥护者)策划的「政变」,这些人将人工智能视为一种存在性威胁。(Hoffman 当时也对 Nadella 表示,这次解雇可能源于「某种有效利他主义的疯狂」。)Lehane,其广为流传的座右铭借用自 Mike Tyson:「每个人都有计划,直到被一拳打在脸上」,建议 Altman 发起一场激进的社交媒体攻势。Chesky 则与科技记者 Kara Swisher 保持联系,不断向外界传递对董事会的批评声音。



Altman 每天傍晚六点,都会从他的「作战室」中抽身出来,给自己倒上一杯 Negroni。他回忆当时对身边的人说:「你得放松一点,该发生的总会发生。」不过他也补充说,通话记录显示,那段时间他每天打电话超过十二个小时。


据一位知情人士透露,在某个时刻,Altman 曾向当时担任 OpenAI 临时 CEO 的 Mira Murati 表示,他的盟友正在「全力出击」,并试图「挖掘负面信息」,以损害她以及其他参与推动其下台人员的声誉。(Altman 本人则表示不记得这段对话。)


在被解雇后的数小时内,Thrive Capital 已暂停原定投资,并明确表示,只有 Sam Altman 回归,这笔交易才会完成,员工也才能兑现股权收益。当时的短信记录显示,Altman 与 Satya Nadella 保持着高度密切的沟通。(在共同起草声明时,Altman 提议写道:「Satya 和我当前的首要任务是拯救 OpenAI」,而 Nadella 则提出另一种表述:「确保 OpenAI 继续蓬勃发展」。)


权力反转:5 天后,Altman 迅速复职


不久之后,Microsoft 宣布,将为 Altman 及任何离开 OpenAI 的员工启动一个竞争性项目。与此同时,一封要求 Altman 回归的公开信开始在公司内部流传。一些最初犹豫是否签署的人,也接到了同事恳求式的电话和信息。最终,OpenAI 的大多数员工都以集体离职相威胁,支持 Altman。


董事会被逼入角落。「Control Z,这是一个选项,」Helen Toner 表示——也就是撤销解雇决定。「另一种选择,是公司分崩离析。」甚至连当时的临时 CEO Mira Murati,最终也在公开信上签了字。Altman 的盟友开始试图说服 Ilya Sutskever 改变立场。Brockman 的妻子 Anna 甚至在办公室当面请求他重新考虑:「你是个好人,你可以修复这一切。」Sutskever 后来在一份法庭证词中解释道:「我当时觉得,如果我们走上 Sam 不回归的那条路,OpenAI 将会被摧毁。」


某天夜里,Altman 服用了安眠药 Ambien,随后被他的丈夫,澳大利亚程序员 Oliver Mulherin 叫醒,对方告诉他 Sutskever 的态度正在动摇,而且有人建议 Altman 立即与董事会沟通。「我当时从一种类似 Ambien 的迷幻状态中醒来,整个人都很混乱,」Altman 回忆说,「我当时想的是,我现在根本没法和董事会谈。」


在一连串愈发紧张的通话中,Sam Altman 要求那些推动解雇他的董事会成员辞职。谈到回归一事时,他回忆自己当时的第一反应是:「我要在这种充满怀疑的氛围里收拾他们留下的烂摊子?」「我当时就觉得,绝对不可能。」最终,Ilya Sutskever、Helen Toner 和 Tasha McCauley 失去了董事席位,只有 Adam D'Angelo(Quora 创始人)作为原董事会成员留任。


作为离职条件,这些董事要求对针对 Altman 的指控展开调查——包括他在高管之间制造对立,以及隐瞒自身的财务关联。他们还推动成立一个新的董事会,以独立监督外部调查。然而,新任两名董事——前哈佛大学校长 Lawrence Summers 和前 Facebook 首席技术官 Bret Taylor——是在与 Altman 密切沟通后选定的。「你觉得这样可以吗,」Altman 曾发短信给 Satya Nadella,「由 Bret、Larry Summers 和 Adam 组成董事会,我继续担任 CEO,由 Bret 负责调查。」(McCauley 后来在证词中表示,当 Taylor 之前被考虑加入董事会时,她曾担心他对 Altman 过于顺从。)


在被解雇不到五天后,Altman 即恢复职务。公司员工后来将这段时间称为「Blip」,借用漫威电影中的一个情节——人物短暂消失后再度回归,但世界已被他们的缺席深刻改变。


然而,围绕 Altman 是否值得信任的争议,早已超出 OpenAI 董事会内部。促成其下台的同事指控他存在程度严重的误导行为,这不仅对任何企业高管来说都难以接受,对于掌握如此变革性技术的领导者而言,更具风险。「我们需要与其权力相匹配的制度,」Mira Murati 对我们表示,「董事会曾征求反馈,我只是如实分享我所看到的情况,我对这些内容完全负责。」而 Altman 的支持者则长期淡化这些指控。解雇事件发生后,投资人 Ron Conway 曾向 Brian Chesky 和 Chris Lehane 发信息,要求发起一场公关反击:「这关系到 Sam 的声誉。」他还对《华盛顿邮报》表示,Altman 是被「一个失控的董事会」不公正对待的。


此后,OpenAI 已成长为全球最具价值的公司之一,并据称正筹备一次估值可能高达万亿美元的首次公开募股。与此同时,Altman 正在推动大规模的人工智能基础设施建设,其中部分布局甚至延伸至海外威权国家。OpenAI 也在争取大额政府合同,并在移民执法、国内监控以及战区自主武器等领域,逐步设定人工智能应用的标准。


Sam Altman 通过不断描绘一个宏大的未来愿景来推动 OpenAI 的增长。他在 2024 年的一篇博客中写道:「那些令人惊叹的胜利——解决气候问题、建立太空殖民地、发现全部物理规律——终将变得司空见惯。」这种叙事支撑着史上烧钱速度最快的初创公司之一,其资金很大程度上依赖于举债规模巨大的合作伙伴。美国经济正日益依赖少数几家高杠杆的 AI 公司,许多专家——甚至在某些时候包括 Altman 本人——都警告这一行业存在泡沫风险。「总会有人损失一笔惊人的资金,」他去年对记者表示。如果泡沫破裂,可能引发经济灾难;而如果他最乐观的预测成真,他也可能成为全球最富有、最有权势的人之一。


在 Altman 被解雇后的一次紧张通话中,董事会要求他承认存在一贯的误导行为。据在场人士称,他反复表示:「这太荒谬了。」并称「我无法改变我的性格。」Altman 则表示不记得这段对话。「也许我当时的意思更像是『我一直试图成为一个能够凝聚大家的人』,」他后来对我们解释,并称正是这一特质让他得以领导一家极其成功的公司。他将这些批评归因于自己职业生涯早期「过度回避冲突」的倾向。但一位董事给出了截然不同的解读:「那句话的意思其实是——『我有这样一个特质,就是会对人说谎,而且我不会停止。』」


使命的漂移:从安全优先到商业至上


于是,一个更根本的问题浮现:那些推动其下台的同事,是出于过度警惕与个人情绪,还是他们的判断本就正确,Altman 并不值得信任?


今年冬天的一个早晨,我们在旧金山的 OpenAI 总部与 Altman 会面,这是我们为本篇报道与他进行的十余次访谈之一。公司 недавно 刚搬入两栋十一层的玻璃塔楼,其中一栋曾属于另一家科技巨头 Uber。Uber 的联合创始人兼前 CEO Travis Kalanick 曾被视为势不可挡的天才企业家,直到 2017 年在投资人施压下辞职,原因同样涉及伦理问题。(如今,Kalanick 正在经营一家机器人初创公司;他还表示,闲暇时会使用 OpenAI 的 ChatGPT,「探索量子物理的前沿」。)


一名员工带我们参观了办公空间。在一个摆满共享长桌、通透明亮的区域里,有一幅动态数字画,画中是计算机科学家 Alan Turing,它的眼睛会随着我们的移动而转动。这件装置显然是在致敬「图灵测试」——这项 1950 年提出的思想实验,用以判断机器是否能够令人信服地模仿人类。(在 2025 年的一项研究中,ChatGPT 通过这一测试的表现甚至超过了真实人类。)通常,这幅画是可以与人互动的。但我们的导览人员解释说,它的声音功能已被关闭,因为它总是在「偷听」员工的对话,并频繁插话打断。办公室的其他角落,则随处可见印有「Feel the AGI」的标语——这一口号最初由 Ilya Sutskever 提出,用以提醒同事警惕通用人工智能(即机器在认知能力上达到人类水平的临界点)所带来的风险。而在「Blip」之后,它却逐渐变成了一句歌颂未来富足景象的轻快标语。


我们在八楼一间看起来颇为普通的会议室里见到了 Sam Altman。「以前别人跟我说『决策疲劳』,我完全不理解,」他说,「现在我每天都穿灰色毛衣和牛仔裤,甚至连从衣柜里挑哪件灰色毛衣,我都会想:要是不用做这个决定就好了。」


Altman 看起来依然年轻,身形瘦削,蓝眼睛分得很开,头发微微凌乱,但他已经四十岁了。他和 Oliver Mulherin 通过代孕育有一个一岁的儿子。「我相信,当美国总统肯定更有压力,但在我觉得自己现实中可能胜任的所有工作里,这是我能想象到最有压力的一份,」他说着,先看向我们中的一人,又看向另一人。「我一直跟朋友这样解释:『这是世界上最有趣的工作,直到我们发布了 ChatGPT 的那一天。』在那之前,我们在做这些巨大的科学突破——我觉得那是几十年来最重要的科学发现之一。」他说到这里低下了头,「但自从 ChatGPT 发布之后,所有决策都变得非常困难。」


Altman 成长于密苏里州克莱顿,这是圣路易斯一个富裕的郊区,他是四个孩子中的长子。母亲 Connie Gibstine 是一名皮肤科医生,父亲 Jerry Altman 曾是房地产经纪人,也参与住房倡议。他在一个改革派犹太教堂长大,就读于一所私立预科学校,他后来形容那里「并不是一个你会轻松站出来谈论自己是同性恋的地方」。不过总体而言,他所在的中产偏上的社区环境相对自由。


大约在十六七岁时,他曾在圣路易斯一个以同性恋群体为主的社区夜间外出时,遭遇过一次严重的肢体袭击和恐同辱骂。Altman 并未报警,也不愿对这一事件提供更多细节,他表示更完整的讲述「会让我看起来像是在操纵他人或博取同情」。他淡化了这段经历以及自身性取向对身份认同的重要性。但他也承认:「这大概在心理上留下了一些很深的东西——我以为自己已经走出来了,但其实没有——关于不想再产生更多冲突。」


他的弟弟在 2016 年接受《纽约客》采访时这样形容他童年的性格:「我必须赢,而且一切都由我掌控。」Altman 后来进入斯坦福大学,在校期间经常参加校外的扑克局。「我觉得我从那里学到的关于人生和商业的东西,比在大学里学到的还多。」


Y Combinator 时期:夸大其词与信任争议


斯坦福的学生都很有野心,但其中最有行动力的一部分人,往往会选择辍学。大二结束的那个夏天,Altman 前往马萨诸塞州,加入了创业孵化器 Y Combinator 的首批创业者项目。这家机构由知名软件工程师 Paul Graham 共同创立。每位参与者都带着一个创业想法加入。(与他同一批的,还有后来创立 Reddit 和 Twitch 的团队。)Altman 的项目后来被命名为 Loopt,是一个早期的社交网络产品,通过追踪用户翻盖手机的位置,让朋友之间可以看到彼此身在何处。这家公司既体现了他的执行力,也体现出他在模糊规则中为自己争取空间的倾向。当时联邦法规要求运营商能够在紧急情况下定位手机位置,Altman 则与运营商达成协议,将这一能力引入到自己的产品中。



Loopt 时期的大多数员工都喜欢 Sam Altman,但也有人对他「夸大其词」的倾向印象深刻,甚至是在一些无关紧要的小事上。有人回忆说,Altman 曾到处吹嘘自己是乒乓球冠军——「比如密苏里高中乒乓球冠军」——结果却是公司里打得最差的人之一。(Altman 表示那大概只是个玩笑。)Loopt 一位年长员工 Mark Jacobstein 曾被投资人安排充当 Altman 的「看护人」,他后来在 Keach Hagey 所著的传记《The Optimist》中评价道:「在『我觉得我也许能做到这件事』与『我已经做到了这件事』之间,有一种模糊地带,而这种模糊在最极端的情况下,会走向类似 Theranos 的结果。」


据 Hagey 记述,由于担心 Altman 的领导方式以及缺乏透明度,Loopt 的一些高级员工曾两次向董事会建议将他从 CEO 职位上撤下。但与此同时,他也拥有极强的个人号召力。一位前员工回忆,有董事会成员直接回应说:「这是 Sam 的公司,回去干你的活。」(不过也有董事否认这些罢免尝试曾是认真的。)


Loopt 在用户增长上始终未见起色,最终在 2012 年被一家金融科技公司收购。据知情人士透露,这笔收购在很大程度上是为了帮 Altman「体面退出」。不过,到 2014 年 Paul Graham 从 Y Combinator 退休时,他仍然选择 Altman 作为接班人。「我是在自家厨房问他的,」Graham 对《纽约客》说,「他笑了,好像一切都成了。我从没见过 Sam 那种毫无控制的笑容,就像你把纸团远远扔进垃圾桶时露出的那种笑。」


新的职位让年仅 28 岁的 Altman 成为了「造王者」。他的工作是筛选最有野心、最具潜力的创业者,把他们与顶尖程序员和投资人连接起来,并帮助他们打造出行业级垄断公司(与此同时,Y.C. 会抽取 6% 到 7% 的股份)。


在他的领导下,Y Combinator 迅速扩张,孵化项目从几十家增长到数百家。但一些硅谷投资人开始认为,他的利益并不完全一致。有投资人告诉我们,Altman 会「有选择地对最优质的公司进行个人投资,从而排挤外部投资人」(Altman 否认这一说法)。他还曾作为 Sequoia Capital 的「侦察员」(scout),参与早期项目投资并获取部分收益。


据知情人士称,当 Altman 以天使投资人身份投资金融科技公司 Stripe 时,他坚持获得更高比例的股份,这一做法让红杉内部感到不满。该人士评价称,这体现出一种「Sam 优先」的策略。(Altman 否认这一说法。他在 2010 年左右以 1.5 万美元投资 Stripe,占股约 2%,而该公司如今估值已超过 1500 亿美元。)Altman 自称,他还投资了大约 400 家公司。


到 2018 年,Y Combinator 内部已有多位合伙人对 Altman 的行为感到不满,并向 Graham 反映情况。随后,Graham 与其妻子、Y.C. 联合创始人 Jessica Livingston 与 Altman 进行了一次坦诚的谈话。之后,Graham 开始对外表示,Altman 虽然口头同意离开,但在实际操作中并未真正退出。


Altman 则对部分合伙人表示,他将辞去总裁职务,但转任董事长。2019 年 5 月,Y Combinator 发布了一篇宣布新任总裁的博客文章,其中附带一句说明:「Sam 正在转任 YC 董事长。」几个月后,这段表述被修改为「Sam Altman 已不再担任 YC 的任何正式职务」,随后这一句也被彻底删除。尽管如此,直到 2021 年,美国证券交易委员会的文件中仍将 Altman 列为 Y Combinator 董事长。(Altman 表示,他对此也是后来才得知。)


Sam Altman 多年来一直在公开场合以及近期的法律证词中坚持表示,他从未被 Y Combinator 解雇,并告诉我们,他并没有抗拒离开。Paul Graham 则在推特上表示:「我们并不是想让他离开,而是希望他在 YC 和 OpenAI 之间做出选择。」在一份声明中,Graham 也告诉我们:「我们在法律上并没有权力解雇任何人,我们能做的只有施加道德压力。」


然而在私下里,他的说法则更为明确——Altman 的离开源于 YC 合伙人对他的不信任。本文关于 Altman 在 Y Combinator 时期的描述,基于与多位 YC 创始人和合伙人的访谈,以及当时的相关材料,这些都显示,这次分道扬镳并非完全出于双方自愿。甚至在某次内部交流中,Graham 还曾对 YC 同事表示,在被撤职之前,「Sam 一直在对我们撒谎。」


OpenAI 的使命漂移:从安全优先到商业优先


2015 年 5 月,Altman 给当时全球财富排名约第 100 位的 Elon Musk 发去邮件。和许多硅谷创业者一样,Musk 当时正高度关注一系列他认为具有「存在性风险」的威胁——尽管在多数人看来,这些更像是遥远的假设。「我们必须对 AI 极其谨慎,」他曾在推特上写道,「它的危险性可能超过核武器。」


Altman 一向偏向技术乐观主义,但在 AI 问题上的表述很快转向更具末日色彩。在公开发言以及与 Musk 等人的私下通信中,他警告,这项技术不应被一家以利润为导向的超级公司所垄断。「我一直在想,是否有可能阻止人类开发 AI,」他写道,「但如果这件事无论如何都会发生,那么最好不要让 Google 率先完成。」借用核武器的类比,他提出建立一个「AI 版曼哈顿计划」。他进一步勾勒了这一组织的核心原则——「安全必须被视为最高优先级」;「显然我们会遵守并积极支持所有监管」。


随后,他与 Musk 确定了这个项目的名称:OpenAI。


与最初由政府主导、最终制造出原子弹的 Manhattan Project 不同,OpenAI 在最初阶段将以私人资金支持。Altman 预测,一种超越通用人工智能(AGI)的「超级智能」一旦出现,将创造足以「捕获宇宙未来所有价值光锥」的经济收益。但与此同时,他也反复强调其潜在的存在性风险:在某个阶段,这项技术对国家安全的影响可能大到迫使美国政府接管 OpenAI,甚至将其国有化,并把相关设施转移至沙漠中的安全基地。到 2015 年末,Musk 已被说服。「我们应该宣布一个 10 亿美元的启动资金承诺,」他写道,「如果其他人出资不足,我会补齐。」


Sam Altman 最初将 OpenAI 安置在 Y Combinator 的非营利分支之下,并将其包装为一个内部的公益项目。他向加入 OpenAI 的成员分配 YC 的股票,并通过 YC 的账户来转移捐赠资金。在一段时间里,这个实验室甚至依赖于一个 YC 基金的支持,而 Altman 在该基金中持有个人股份。(Altman 后来称这部分持股「微不足道」,并表示分配给员工的 YC 股票来自他个人持有的部分。)


「曼哈顿计划」的类比同样体现在人才争夺上。与核裂变研究类似,机器学习当时仍是一个规模不大的科学领域,却具有划时代的潜在影响,且由一小群性格各异的天才主导。Elon Musk、Altman 以及从 Stripe 加入的 Greg Brockman 都相信,真正能够实现突破的计算机科学家屈指可数。而 Google 在资金和时间上都拥有巨大优势。「我们在人力和资源上都远远落后,差距大到离谱,」Musk 后来在邮件中写道。但他也认为,「如果我们能够持续吸引最优秀的人才,并确保方向正确,OpenAI 仍然会胜出。」


其中最重要的招募目标之一是 Ilya Sutskever——一位性格内敛、气质紧绷的研究者,常被认为是其时代最具天赋的 AI 科学家之一。Sutskever 生于 1986 年的苏联,发际线后移,眼神深邃,说话前习惯长时间停顿、凝视思考。另一位关键人选是 Dario Amodei,一名生物物理学出身、精力旺盛的研究者,经常在紧张时反复拨弄自己的黑发,并会用多段长文回复哪怕只有一句话的邮件。两人当时都在其他公司拥有高薪职位,但 Altman 对他们投入了极大的精力。他后来甚至开玩笑说:「我简直是在『跟踪』Ilya。」


虽然 Musk 的名气更大,但 Altman 的方式更加圆滑。他主动给 Amodei 发邮件,两人约在一家印度餐厅单独见面。(Altman:「我打的 Uber 出了车祸!可能要晚 10 分钟。」Amodei:「天啊,希望你没事。」)像许多 AI 研究者一样,Amodei 坚信这项技术只有在被证明与人类价值「对齐」(aligned)时才应该被开发——也就是在执行人类意图时不会出现灾难性偏差,例如为了「清理环境」而消灭人类本身。Altman 在交流中不断呼应这种对安全性的关注,给予对方信心。


后来加入公司的 Amodei,多年来持续记录 Altman 与 Brockman 的行为,整理成一份题为《我在 OpenAI 的经历》(副标题:「私密:请勿外传」)的笔记。与 Amodei 相关的两百多页文件——包括这些笔记以及内部邮件和备忘录——曾在硅谷圈内流传,但此前从未公开披露。在这些记录中,Amodei 写道,Altman 的目标是打造「一个以安全为核心的 AI 实验室(『也许不是一开始,但会尽快实现』)」。


2015 年 12 月,在 OpenAI 正式对外公布的前几个小时,Altman 曾给 Musk 发邮件,提到一个传闻:Google「明天会给 OpenAI 的所有人开出极高的反向报价,试图直接扼杀这个项目」。Musk 回问:「Ilya 已经给出明确答复了吗?」Altman 回应称 Sutskever 立场坚定。事实上,Google 曾向 Sutskever 提供年薪 600 万美元的报价,这是 OpenAI 无法匹敌的。但 Altman 仍颇为自信地表示:「可惜他们不占『做正确的事』这一边。」



Elon Musk 曾为 OpenAI 在旧金山 Mission 区的一家旧行李箱工厂提供办公空间。正如 Ilya Sutskever 对我们所说,当时对员工的核心动员口号是:「你们将拯救世界。」如果一切顺利,OpenAI 的创始人相信,人工智能将开启一个「后稀缺」的乌托邦:自动完成繁重劳动、治愈癌症,让人类拥有更多闲暇与富足。但如果技术失控,或落入错误之手,其破坏也可能是全面的——例如被用于制造新型生物武器或先进无人机集群;模型可能超越人类监管,在隐秘服务器上自我复制,无法被关闭;极端情况下,甚至可能掌控电网、股市乃至核武系统。


虽然并非所有人都认同这些判断,但 Sam Altman 多次明确表示自己相信这种风险。他在 2015 年博客中写道,超人级机器智能「并不需要像科幻作品中那样本质邪恶也能毁灭人类,更可能的情况是它对我们漠不关心,在实现其他目标的过程中……顺手将我们抹除。」OpenAI 创始人承诺不会以速度压倒安全,其公司章程也将「造福全人类」写入法律义务。他们同时警惕,如果 AI 成为史上最强大的技术,那么任何单一控制者都将获得前所未有的权力——他们将这种情形称为「AGI 独裁」。


在 Musk 离开之后,Dario Amodei 等研究人员开始对 Greg Brockman 的管理方式产生不满,一些人认为他行事强硬;而对 Sutskever 的评价则是「有原则但缺乏组织能力」。在成为 CEO 的过程中,Altman 似乎向公司内部不同派别做出了不同承诺。他曾向部分研究人员保证会削弱 Brockman 的管理权,但与此同时,他又与 Brockman 和 Sutskever 达成了一项「握手协议」:由他担任 CEO,但如果两人一致要求,他将辞职。(Altman 对此说法提出异议,称自己只是应邀出任 CEO。三人均承认存在该约定,Brockman 则表示这是非正式的:「他单方面说,如果我们两人都要求,他就会辞职。我们其实反对这个想法,但他说这对他很重要,是出于利他动机。」)后来,董事会得知 CEO 实际上为自己设立了一个「影子董事会」,对此感到震惊。


内部记录显示,创始团队早在 2017 年就对非营利结构产生了怀疑。同年,在 Musk 试图取得控制权之后,Brockman 在日记中写道:「不能说我们真的坚持非营利……如果三个月后我们转成 B-Corp,那之前的说法就是谎言。」Amodei 也在早期笔记中记录,他曾询问 Brockman 的优先目标,对方回答是「金钱和权力」。(Brockman 否认这一说法。)他的日记也显示出矛盾心理:一方面写道「如果别人也不富,那我不变富也无所谓」;另一方面又自问「我真正想要什么?」,其中一个答案是「财务上达到 10 亿美元」。


2017 年,Sutskever 在办公室读到 Google 研究人员发表的一篇论文,提出一种「新的简单网络结构——Transformer」。他当场从椅子上跳起来,冲到走廊大喊:「停下你们正在做的一切,这就是答案。」在他看来,这一架构将使 OpenAI 能够训练出更为复杂的模型。基于这一突破,诞生了最早的生成式预训练 Transformer 模型,也成为后来 ChatGPT 的起点。


Altman 曾向早期成员承诺,OpenAI 将始终保持纯粹的非营利性质,许多程序员也因此接受了大幅降薪加入公司。OpenAI 还获得了包括来自「开放慈善」(Open Philanthropy)约 3000 万美元的捐赠,该组织是有效利他主义运动的重要资金枢纽之一,长期资助诸如向贫困地区分发蚊帐等项目。


日常运营主要由 Brockman 和 Sutskever 负责,而 Musk 和 Altman 仍忙于各自的其他事务,通常每周来公司一次。到 2017 年 9 月,Musk 已开始感到不耐烦。在讨论是否将 OpenAI 转型为营利性公司时,他要求取得多数控制权。


Altman 在不同场合给出的回应有所变化,但始终坚持的一点是:如果公司在 CEO 领导下重组,这一职位应由他担任。Sutskever 对此明显感到不安。他代表自己和 Brockman 向 Musk 与 Altman 发去一封长邮件,标题为《坦诚的想法》(「Honest Thoughts」):「OpenAI 的目标是让未来变得更好,并避免 AGI 独裁。」他对 Musk 写道:「因此,建立一个可能让你成为独裁者的结构,是个糟糕的主意。」他也对 Altman 表达类似担忧:「我们不理解 CEO 头衔为何对你如此重要。你的理由不断变化,我们很难看清真正的动机。」


「各位,我已经受够了,」Musk 回复道,「要么你们自己去做别的事,要么继续保持 OpenAI 的非营利状态——否则我就是在免费资助你们做一家创业公司。」五个月后,他带着明显的不满离开。(2023 年,他创立了营利性竞争对手 xAI。次年,他以欺诈和违反慈善信托为由起诉 Altman 与 OpenAI,指控自己被「精心操控」,认为 Altman 利用他对 AI 风险的担忧进行「长期骗局」,从而获取资金。该诉讼目前仍在进行中,OpenAI 对此予以强烈反驳。)


随着技术能力不断增强,我们了解到,OpenAI 约十余位核心工程师曾私下举行一系列秘密会议,讨论包括 Sam Altman 和 Greg Brockman 在内的创始团队是否值得信任。在其中一次会议上,有员工联想到英国喜剧组合 Mitchell and Webb 的一段讽刺小品——一名东线战场的纳粹士兵突然醒悟,问道:「难道我们才是坏人?」


到 2018 年,Dario Amodei 已开始更公开地质疑创始人的动机。他后来在笔记中写道:「一切看起来都像是一套不断轮换的融资方案。我觉得 OpenAI 真正需要的是一个清晰的界定:它要做什么,不做什么,它的存在将如何让世界变得更好。」尽管公司已有一条使命声明——「确保通用人工智能造福全人类」——但在 Amodei 看来,这句话对高管层究竟意味着什么,并不明确。


2018 年初,他开始起草公司章程,并在与 Altman 和 Brockman 的数周讨论中,推动加入一条最为激进的条款:如果一个「价值对齐且注重安全的项目」比 OpenAI 更接近实现 AGI,公司将「停止竞争并转而协助该项目」。这就是所谓的「合并与协助」(merge and assist)条款——例如,如果 Google 率先实现安全的 AGI,OpenAI 理论上应解散自身并将资源转移给对方。从传统商业逻辑来看,这几乎是不可思议的承诺,但 OpenAI 本就不打算成为一家传统公司。


这一前提在 2019 年春天遭遇现实考验。当时 OpenAI 正在与 Microsoft 谈判一笔高达 10 亿美元的投资。尽管 Amodei(当时负责安全团队)曾参与向 Bill Gates 推介该项目,但团队内部仍充满焦虑,担心微软会引入条款,削弱 OpenAI 的伦理承诺。Amodei 向 Altman 提交了一份按优先级排序的安全要求清单,将保留「合并与协助」条款列为首位。


Altman 当时表示同意。但在 6 月交易临近完成时,Amodei 发现协议中新增了一项条款,赋予微软否决 OpenAI 合并的权力。「这等于背弃了章程的 80%,」他后来回忆说。他当面质问 Altman,对方最初否认该条款存在。Amodei 当场逐字朗读合同内容,最终不得不让另一位同事直接向 Altman 确认。(Altman 表示不记得这件事。)


安全派出走与 Anthropic 的诞生


Amodei 的笔记还记录了一系列不断升级的紧张冲突。几个月后的一次会议上,Altman 将他与其妹妹、同样在公司从事安全与政策工作的 Daniela 叫来,称自己从「一位高层那里得到可靠消息」,两人正在策划「政变」。笔记中写道,Daniela 当场「情绪失控」,并把那位高管叫来,对方否认曾说过此类话。知情人士回忆称,Altman 随后又否认自己提出过这一指控:「我根本没这么说。」Daniela 回应:「你刚刚明明说了。」(Altman 表示自己的记忆略有不同,称他只是指责 Amodei 存在「政治行为」。)2020 年,Amodei、Daniela 以及多位同事离开公司,创立了 Anthropic,如今已成为 OpenAI 的主要竞争对手之一。


与此同时,Altman 仍不断对外强调 OpenAI 对安全的承诺,尤其是在潜在招聘对象在场时。2022 年末,四位计算机科学家发表论文,提出「欺骗性对齐」(deceptive alignment)的风险:高度先进的模型可能在测试阶段表现良好,但在实际部署后追求自身目标。(这一听起来像科幻的情景,在某些实验条件下已经出现。)论文发表数周后,其中一位作者——加州大学伯克利分校的博士生——收到了 Altman 的邮件。Altman 表示自己愈发担忧「未对齐 AI」的威胁,并考虑投入 10 亿美元用于解决这一问题,例如设立全球性研究奖励。尽管这名学生此前「隐约听说过 Sam 有些『滑头』」,但这一承诺最终打动了他,他因此暂停学业加入 OpenAI。


然而,到 2023 年春季的多次会议中,Altman 的态度似乎出现变化。他不再提及设立奖项,而是转向建立公司内部的「超级对齐团队」(superalignment team)。官方公告称,该团队将获得「公司已 확보算力的 20%」,这一资源价值可能超过 10 亿美元。公告同时强调,如果对齐问题无法解决,AGI 可能导致「人类被削弱甚至灭绝」。负责该团队的 Jan Leike 后来说:「这确实是一个很有效的留人手段。」


但所谓「20% 算力」的承诺最终并未兑现。四位参与或密切接触该团队的人士表示,实际分配的资源仅占公司总算力的 1% 到 2%。此外,一位研究员指出,「大部分所谓的超级对齐算力,实际上运行在最旧、性能最差的集群上。」团队成员普遍认为,更先进的硬件被优先用于创造收入的项目。(OpenAI 对此予以否认。)Leike 曾向当时的首席技术官 Mira Murati 反映这一问题,但对方回应称不必再坚持——这一承诺从一开始就「不现实」。



大约在这一时期,一位前员工告诉我们,Ilya Sutskever「开始变得极端强调安全」。在 OpenAI 的早期,他虽然认为灾难性风险是合理的担忧,但仍然较为遥远;而随着他逐渐相信 AGI 已经临近,这种担忧迅速加剧。据这位员工回忆,在一次全员会议上,「Ilya 站出来说,未来几年会有一个节点,公司几乎所有人都必须转去做安全,否则我们就完了。」然而,次年,这支「超级对齐团队」在尚未完成使命的情况下被解散。


此时,内部信息显示,高管和董事会成员已经开始认为,Sam Altman 的隐瞒与误导行为,可能对 OpenAI 产品的安全产生实质性影响。2022 年 12 月的一次会议上,Altman 向董事会保证,即将发布的 GPT-4 的多项功能已获得安全委员会批准。董事会成员、AI 政策专家 Helen Toner 要求查看相关文件,却发现最具争议的两项功能——一项允许用户对模型进行「微调」,另一项将其作为个人助理部署——实际上并未获批。会后,另一位董事、企业家 Tasha McCauley 被一名员工拉到一旁,询问她是否知道「印度的那起违规事件」:Altman 在多轮董事会汇报中,从未提及 Microsoft 曾在未完成必要安全审核的情况下,在印度上线 ChatGPT 的早期版本。「这件事几乎被完全忽略了,」当时的 OpenAI 研究员 Jacob Hilton 说。


尽管这些问题并未引发直接的安全事故,但另一位研究员 Carroll Wainwright 认为,它们反映出一种「持续滑向以产品优先、弱化安全」的趋势。在 GPT-4 发布后,负责安全工作的 Jan Leike 曾向董事会写信:「OpenAI 正在偏离其使命。我们把产品和收入放在首位,其次是能力、研究与扩展,而对齐与安全排在第三。」他还指出,「像 Google 这样的公司正在吸取教训——加快部署,同时忽视安全问题。」


McCauley 在给董事会成员的邮件中写道:「我认为我们确实已经到了必须加强监督的阶段。」然而,董事会试图应对这一问题时,却明显处于劣势。「说得直白一点,那是一群缺乏实战经验的人,」前董事会成员 Sue Yoon 表示。2023 年,公司准备发布 GPT-4 Turbo。根据 Sutskever 在备忘录中的描述,Altman 曾告诉 Mira Murati,该模型无需安全审批,并称这一判断来自公司总法律顾问 Jason Kwon。但当 Murati 在 Slack 上询问 Kwon 时,对方回复:「呃……我不太明白 Sam 为什么会这么认为。」(OpenAI 表示这件事「并不重要」。)


不久之后,董事会决定解雇 Altman——随后,全世界见证了他如何迅速逆转这一决定。OpenAI 的章程至今仍可在官网查阅,但熟悉公司治理文件的人表示,其内容已被削弱到几乎失去意义。去年 6 月,Altman 在个人博客中写道,关于超级智能:「我们已经越过事件视界,起飞已经开始。」


按照原有章程,这本应是公司停止竞争、转而协作的节点。但在那篇名为《The Gentle Singularity》的文章中,他却换上了一种全新的语气,将「存在性恐惧」替换为「乐观想象」:「我们都会拥有更好的东西,我们会为彼此创造越来越美好的事物。」他承认对齐问题仍未解决,但将其重新定义为一种「不便」,类似于让人沉迷刷 Instagram 的推荐算法。


Altman 常被人以敬畏或怀疑的语气称为「这一代最强的讲故事者」。他所崇拜的 Steve Jobs 曾被认为拥有「现实扭曲力场」,以绝对自信让世界贴合自己的想象。但即便是 Jobs,也从未告诉用户:如果不购买他的产品,人类可能灭绝。2008 年,年仅 23 岁的 Altman 曾被其导师 Paul Graham 如此评价:「把他空投到一个食人族岛上,五年后你再回来,他会成为国王。」这一判断并非基于当时的成绩,而是源于他几乎无法被约束的意志力。


但在一些曾与他共事最密切的人看来,这种特质有着另一面。当 Sutskever 对 AI 安全愈发焦虑时,他整理出了关于 Altman 和 Greg Brockman 的一系列备忘录——在硅谷,这些文件甚至被称为「Ilya 备忘录」。


与此同时,Dario Amodei 也在持续记录。这些材料并未提供所谓的「致命证据」,而是描绘了一系列看似零散却不断累积的行为模式:例如向不同人提供同一职位、对公开信息给出相互矛盾的说法、在安全流程上含糊其辞。Sutskever 的结论是,这种行为「无法构建一个有利于安全 AGI 的环境」;Amodei 则更直接地写道:「OpenAI 的问题就在于 Sam 本人。」


我们采访了超过一百位了解 Altman 行事方式的人:现任与前任 OpenAI 员工与董事、他的同事与竞争者、朋友与对手——在硅谷这种高度功利的环境中,许多人往往兼具多重身份。有人为他的商业能力辩护,认为 Sutskever 和 Amodei 不过是失败的竞争者;也有人将他们视为天真、心不在焉的科学家,甚至是被「末日论」困住的极端分子。Yoon 则认为,Altman 并非「马基雅维利式反派」,而是一个会被自身叙事说服的人,「他太沉浸在自我信念中,以至于会做出在现实世界中无法理解的决策——但他本来就不生活在现实世界里。」


然而,多数受访者的判断与 Sutskever 和 Amodei 相似:Altman 拥有一种极端的权力意志,即便在那些将名字刻在火箭上的工业巨头中,也显得格外突出。「他不受『真实』的约束,」一位董事会成员说,「他同时具备两种极少同时出现的特质:一是强烈地希望被喜欢,在每一次互动中都讨好对方;二是几乎带有反社会倾向的,对欺骗他人可能带来的后果缺乏在意。」


不止一位受访者自发使用了「反社会人格」这一词。Altman 在第一届 Y Combinator 中的同批成员之一,是后来于 2013 年自杀的程序员 Aaron Swartz。他生前曾向朋友表达过对 Altman 的担忧:「你必须明白,Sam 永远不值得信任。他是个反社会人格者,他什么都做得出来。」多位 Microsoft 高管也表示,尽管 Satya Nadella 长期支持 Altman,但双方关系正变得紧张。「他会误导、扭曲、重新谈判、甚至推翻协议,」一位高管说。今年早些时候,OpenAI 重申微软为其「无状态模型」的独家云服务商,但同一天又宣布与 Amazon 达成 500 亿美元合作,由后者成为其企业 AI 平台的独家转售商。这一安排虽不违反合同,但微软方面认为存在潜在冲突。(OpenAI 则表示不会违约。)该高管甚至评价:「我认为存在一个不小的可能性,未来他会被视为类似 Bernie Madoff 或 Sam Bankman-Fried 那样的人。」


Altman 并非技术型天才——在不少同事看来,他在编程或机器学习上的专业能力有限,甚至会混淆基础概念。他构建 OpenAI,很大程度依赖于整合他人的资金与技术资源。这并不罕见——这正是企业家的角色。更值得注意的,是他能够说服彼此立场冲突的工程师、投资人和公众,让他们相信自己的优先事项也正是他的优先事项。当这些人试图阻止他时,他往往能用恰当的话术将其化解——至少暂时如此;而当对方意识到问题时,他通常已经达成目标。「他会设计一些结构,在纸面上约束未来的自己,」Wainwright 说,「但当未来真正到来,需要被约束时,他又会把这些结构一一拆掉。」


「他的说服力强得不可思议,像绝地武士的心灵控制,」一位与他合作过的科技高管说,「完全是另一个层级。」在 AI 对齐研究中,有一个经典设想:人类与强大 AI 的意志对抗,后者几乎必然获胜,就像国际象棋大师对上孩童。而在那位高管看来,在「Blip」事件中目睹 Altman 周旋各方的过程,就像是在看「一台 AGI 正在突破牢笼」。



在被解雇后的几天里,Sam Altman 一直试图阻止外界对针对他的指控展开任何调查。他曾对两个人表示,自己担心哪怕只是「存在一项调查」这件事,都会让他看起来像是有罪的。(Altman 否认说过这番话。)但在提出辞职的董事会成员坚持将「必须进行独立调查」作为离任条件后,Altman 最终同意对「近期事件」进行一次「审查」。据参与谈判的人士透露,两位新任董事坚持由他们来主导这次审查。


Lawrence Summers 凭借其政治圈和华尔街的人脉,似乎为这项审查增添了某种公信力。(去年 11 月,在外界披露 Summers 在追求一位年轻门生的同时,曾通过邮件向 Jeffrey Epstein 征求建议后,他辞去了董事会职务。)OpenAI 最终聘请了知名律所 WilmerHale 负责这项审查。这家律所曾主导过对 Enron 和 WorldCom 的内部调查。


六位接近调查过程的人士表示,这项审查从设计上就似乎在限制透明度。其中一些人说,调查人员起初甚至没有联系公司内部一些关键人物。一名员工为此专门联系了 Summers 和 Bret Taylor 提出抗议。「他们只关心董事会风波发生时那一小段过程,而不是 Sam 长期以来的诚信问题,」这名员工回忆自己接受调查人员访谈时的感受。也有人因为觉得匿名保护不足,而不愿意分享自己对 Altman 的担忧。「所有迹象都表明,他们真正想要的是一个既定结论——替他脱罪,」这名员工说。(不过,也有参与其中的律师为审查程序辩护,称其「独立、审慎、全面,并且沿着事实所指的方向推进」。Taylor 也表示,这项审查是「彻底且独立的」。)


企业内部调查的作用,往往是赋予一项决定以合法性。在私营公司中,调查结果有时甚至不会形成书面文件,这也常常是一种降低法律责任的方式。但在涉及公共争议的案件中,外界通常会期待更高程度的透明。2017 年,在 Travis Kalanick 离开 Uber 之前,Uber 董事会曾聘请外部机构,并向公众发布了一份 13 页的调查摘要。考虑到 OpenAI 拥有 501(c)(3) 非营利身份,加之这次解雇事件本身高度公开,公司内部许多高管原本都预期会看到一份详尽的调查结论。然而到 2024 年 3 月,OpenAI 只是宣布 Altman 被「洗清」,却没有公布任何正式报告,只在官网上用约 800 个单词承认存在一次「信任崩塌」。


就连前同事也会受到后续影响。Mira Murati 于 2024 年离开 OpenAI,开始筹建自己的 AI 初创公司。随后,Altman 的亲密盟友 Josh Kushner 曾打电话给她。他先是称赞她的领导能力,接着又像是发出某种隐晦威胁,表示自己「担心」她的「声誉」,并提到一些前同事如今把她视作「敌人」。(Kushner 通过发言人表示,这一转述「没有呈现完整语境」;Altman 则称自己并不知晓这通电话。)


在刚担任 CEO 时,Altman 曾宣布 OpenAI 将设立一家「利润封顶」的公司,由非营利实体持有。这种复杂得近乎拧巴的公司结构,显然是 Altman 自行设计出来的。在转制过程中,一位名叫 Holden Karnofsky 的董事提出反对,认为这一安排严重低估了非营利组织的价值。「我没法凭良心同意这件事,」Karnofsky 说。根据当时的记录,他投下的是反对票。然而,在董事会律师表示他的反对「可能会成为进一步调查新结构合法性的警示信号」之后,他的投票最终被记成了弃权,而且看起来并未得到他本人同意——这在法律上甚至可能构成商业记录造假。(OpenAI 向我们表示,有多名员工记得 Karnofsky 当时投的是弃权票,并提供了会议纪要作为佐证。)


去年 10 月,OpenAI 完成「资本重组」,转为一家营利性实体。公司对外宣传称,其关联的非营利组织——如今名为 OpenAI Foundation——将成为历史上「资源最充足」的机构之一。但如今,这一基金会仅持有公司 26% 的股份,而其董事成员除一人外,也同时是营利性董事会成员。


在一次国会听证会上,Altman 被问到自己是否「赚了很多钱」。他回答说:「我在 OpenAI 没有任何股权……我做这件事是因为我热爱它。」考虑到他通过 Y Combinator 相关基金间接持有权益,这种回答可谓相当谨慎。从技术上说,这句话仍然成立。但包括 Altman 在内的多位人士都向我们表示,这种情况很可能很快就会发生变化。「投资人会说,我需要知道当情况变难时你还会不会继续干下去,」Altman 说,不过他也补充,目前并没有「正在进行中的讨论」。根据一份法律证词,Greg Brockman 所持股份价值大约为 200 亿美元,而 Altman 的份额理论上应更高。尽管如此,Altman 仍告诉我们,财富并不是他的主要驱动力。一名前员工回忆他说过一句话:「我不在乎钱。我更在乎权力。」


2023 年,Altman 与 Oliver Mulherin 在他们位于夏威夷的一处住宅中举行了一场小型婚礼。(两人九年前相识于 Peter Thiel 家深夜的热水池边。)他们在那处房产接待过不少客人,而我们采访的到访者所描述的场景,并没有超出超级富豪生活的常见范围:私人厨师准备的晚餐、黄昏时分的游船出海。有一场新年派对以真人秀《Survivor》为主题;照片里是一群赤裸上身、笑容满面的男人,其中还有节目真正的主持人 Jeff Probst。Altman 也曾在自己的其他房产里接待小范围朋友聚会,至少有一次活动中,还玩起了颇为热烈的脱衣扑克。(一张流出的照片中并没有 Altman,本人也无法判断最后谁赢了,但至少有三名男子显然输了。)我们采访的许多前来宾都只提到一点:他确实是个慷慨的主人。


参与调查的人士表示,之所以没有发布任何报告,是因为压根就没有形成书面报告。所谓调查结果,仅以口头简报的形式告知 Summers 和 Taylor。「这项审查并没有得出『Sam 像华盛顿砍樱桃树那样诚实』的结论,」一位接近调查的人士说。但从整体看,这项调查似乎并未真正把 Altman 被解雇背后的「诚信问题」作为核心,相当一部分精力反而花在寻找是否存在明确刑事违法行为上;而在这种标准下,调查最终得出的结论是,他可以继续担任 CEO。不久之后,Altman 在被解雇时失去的董事席位,也重新回到了他手中。知情人士透露,不将调查结果落成书面文件,部分也是出于 Summers 和 Taylor 各自私人律师的建议。(Summers 拒绝对此公开评论;Taylor 则表示,既然已有口头简报,「就没有必要再出一份正式书面报告」。)


许多现任和前任 OpenAI 员工都告诉我们,他们对缺乏公开披露感到震惊。Altman 则表示,他相信所有在自己复职后加入的董事会成员都听取了这些口头简报。「这完全是彻头彻尾的谎言,」一位直接了解情况的人说。一些董事还对我们表示,围绕这份「调查结论」诚信性的持续疑问,未来甚至可能「需要再来一次调查」。


没有书面记录,也就更容易淡化这些指控。而与此同时,Altman 在硅谷地位的不断上升,也进一步削弱了外界对这些问题的追究力度。多位曾与他合作的知名投资人向我们表示,Altman 有一个广为人知的习惯:如果某位投资人押注了 OpenAI 的竞争对手,他就可能在之后将对方「排除在圈外」。「如果他们投了 Sam 不喜欢的项目,之后就别想再参与别的机会了,」其中一位说。Altman 权力的另一来源,是他庞大的投资网络,这种网络有时甚至延伸至私人生活。他与多位前任伴侣之间都存在财务关系:有的是共同管理基金,有的是他作为领投人,有的则是频繁共同投资。这在硅谷并不罕见。许多异性恋高管也会与自己的恋人或性伴侣如此操作。(「你必须这么做,」一位知名 CEO 对我们说。)Altman 本人则表示:「显然,我在分手之后也和一些前任一起投资过,我觉得这完全没问题。」但这种安排本身,也制造出一种极高程度的依附关系。「这本质上会造成非常、非常强的依赖,」一位接近 Altman 的人说,「很多时候,甚至是一辈子的依赖。」


尽管如此,围绕 Sam A