向AI宣战?火烧奥特曼住所背后的末日叙事

Bitsfull2026/04/13 16:0018477

摘要:

向AI宣战?火烧奥特曼住所背后的末日叙事


编者按:4 月 10 日凌晨 3 点 45 分,一名 20 岁的年轻人向 Sam Altman 的住所投掷燃烧瓶,随后步行前往 OpenAI 总部并威胁纵火。


这起袭击迅速在科技与投资圈引发震动。它不仅关乎个体安全,更将一套长期停留在文本与社群中的极端叙事,推入了现实。


从「AI 将导致人类灭绝」的高度确定性判断出发,经由「必须不惜一切代价降低风险」的推理,这套逻辑逐步滑向对现实行动的正当化。当一种世界观不断强化其「生存级威胁」的叙事,并以此重构道德优先级时,行动的边界也随之被重新定义——原本低成本的言论,开始具备被执行的可能。


本文回顾了 AI 末日论者社群内部的演化路径:从「纯化螺旋」推动风险判断不断升级,到对技术建造者的道德审判,再到将复杂现实简化为「电车难题」的决策模型。这些看似理性的推演,最终汇聚成一种自洽却危险的思维框架:只要结果被定义为「拯救人类」,手段便可以不断扩展。


在这个意义上,这起事件并非孤立。它更像是一次提前到来的压力测试——测试的不是技术本身,而是围绕技术所形成的叙事、信念与行动之间,何时开始失去约束。


以下为原文:


纵火者是谁?


周五凌晨 3 点 45 分,一名 20 岁的男子于向 Sam Altman 的住所投掷了一枚燃烧瓶。随后,他步行约三英里,前往 OpenAI 总部,威胁要将其焚毁。目前,他已因涉嫌谋杀未遂被警方拘捕。



他并非「独狼」。他是 PauseAI 的活跃成员,在社区中拥有六个角色。他在 Discord 上的用户名是「Butlerian Jihadist」。


他的 Instagram 几乎被一种末日情绪内容占据:能力曲线配文「如果我们很快不采取行动,我们就会死去」,还有把现实置于《黑客帝国》《终结者》和《蠢蛋进化论》交集之中的维恩图。


在袭击发生前四个月,他还向自己的关注者推荐了尤德科夫斯基(Yudkowsky)和索亚雷斯(Soares)的文章《如果有人把它造出来,我们所有人都会死》。




他名叫 Daniel Moreno-Gama。


他还有自己的 Substack。早在今年一月,他就发表了一篇题为《AI Existential Risk(AI 的生存性风险)》的文章,在文中将「由 AI 导致人类灭绝」的概率估计为「几乎确定」。他把这项技术称为「对任何使用它的人,尤其是对那些正在构建它的人构成的主动威胁」。他的结论是:「我们必须先处理这个威胁,再去问其他问题。」


他还写过一首诗,想象 AI 开发者的孩子死去,并质问父母为何无所作为。他甚至这样描述这些技术的建造者:「愿地狱对如此卑劣的生物稍有怜悯。」


PauseAI 已经从他们的 Discord 中删除了他的相关发言。



我知道,对于一份投资通讯来说,这并不是大多数读者期待看到的内容。我写这些,是想解释我的世界观从何而来,好让后面那些更长期的判断更容易理解。至于我提出的「新新政」(New New Deal),正是对这一发展方向所作出的直接回应。



我所做的,不过是把他们的那套模型往前推演一步,并把这些线索串联起来。


AI 末日论者的末日叙事


先从「确定性」说起。尤德科夫斯基(此前提到的书)的立场是:一旦有人造出了足够强的人工智能,地球上的每一个人都会死。不是「可能」,不是「也许」,而是所有人——包括你的孩子,也包括他反复提到的女儿 Nina。


他在《时代》杂志上发表过这一观点,也写进了一本名为《如果有人把它造出来,我们所有人都会死》的书里。他甚至主张,应当对数据中心实施空袭,并认为,相比之下,核冲突的风险都要比一次完整的训练运行完成更可接受。


「纯化螺旋」,也就是不断升级的激进行为。在这个社群内部,成员通过不断提高立场强度来证明自己的「坚定」:对「人类灭绝概率(P(doom))」的估计从 50% 一路攀升到 90%、再到 99.99999%。


人工智能安全中心(Center for AI Safety)的一位全国发言人曾在镜头前表示,正确的回应应该是「走到全国各地的实验室,把它们烧掉」。PauseAI 还启动过一个所谓的「警告射击协议」(Warning Shot Protocol),将某个 AI 模型认定为「灭绝性武器」。PauseAI 的一位领导者甚至说,一名 Anthropic 的研究员「活该承受即将发生在她身上的一切」。


当有人在 PauseAI 的 Discord 中对这种言论提出质疑时,管理员直接删除了那条发言。



袭击发生的前一天,尤德科夫斯基那本书的合著者、内特·索亚雷斯发推称,Altman「正在做一些非常糟糕的事情」。



接着,「廉价言论」开始接受现实的检验。


博弈论里有个术语叫「廉价信号」(cheap talk):指的是几乎没有成本的表态,但终究要面对现实的约束。一开始大家只是低成本地说一些极端观点,但一旦把问题定义为「人类生存危机」,这些观点就可能被人当真,从而为极端行为提供正当性。


这些并非孤立事件,而是一系列不断升级、彼此强化的主张,围绕着一种带有末世论色彩的思想体系展开。如果把这套逻辑推到极致,它甚至可以接受「为了拯救最后的 1%,牺牲 99% 的人」。


事情发展到有人按字面理解并付诸行动,只是时间问题。那个年轻人读了那本书,加入了这个社群,也写下了自己的宣言。在一篇写给社区大学英语课的自述中,他把自己定义为「结果主义者」(consequentialist):「如果结果无法匹配,我几乎不会相信动机。」他给自己取名「巴特勒圣战者」(Butlerian Jihadist)。在 12 月 3 日,他在 PauseAI 的 Discord 里写道:「我们已经接近午夜,是时候真正行动了。」


然后,他真的行动了。


他们给了他一个「电车难题」:一条生命,对比全人类。他拉下了扳手。




还有一个值得注意的最后讽刺。如果这些「末日派」(doomers)真的以他们宣称的那种置信度相信自己的判断,那他们理应更坦诚地面对这些信念所推导出的含义。


就在袭击发生前几周,一名记者曾问尤德科夫斯基:既然 AI 如此危险,你为什么不去袭击数据中心?他通过索亚雷斯转述的回答是:「如果你看到一条新闻,说我这么做了,你会觉得『哇,AI 已经被阻止了,我们安全了』吗?如果不会,那你其实已经知道,这种做法并不奏效。」



注意这个回答没有说什么。它并不是「因为暴力是错误的」,而是「因为现在这么做还不起作用」。这种克制是出于策略考量,而非道德约束。而这个社群对此心知肚明。潜藏在水面之下的,是一种未明说的共识:那个年轻人最大的「错误」,只是时机不对。


这正是我所说的:智能并不等于权力。这也是整个「末日派」世界观中最深层的缺陷。


尤德科夫斯基的框架建立在一个混同之上:只要 AI 足够聪明,就必然会获得毁灭人类的能力,因为「智能会自动转化为能力」。但他的许多追随者并不具备技术背景。他们既不构建 AI 系统,也不从事对齐工程。他们拥有的是一种特定类型的「语言智力」,可以构造复杂的风险论证,并由此说服自己拥有某种对技术的「神职式权威」。他们能构建论证,却无法构建系统。


这并非偶然,而是写进其基础文本中的设定。尤德科夫斯基的《哈利·波特与理性之道》本质上描绘了一个世界:最会推理的人理应凌驾于一切制度之上。《理性序列》(The Sequences)则提供了一整套「教义」:一小群「正确思考者」,在认知与道德上都更优越,他们的理性使他们有资格决定其他人可以建造什么。这与其说是一个安全运动,不如说更像一个拥有起源神话的「神职体系」。


尤德科夫斯基可以与那个投掷燃烧瓶的年轻人保持距离,但他无法与那套三段论切割。如果建造者会杀死所有人,那么阻止建造者就是自卫。这才是其核心命题,直白而清晰。问题从来只是:什么时候会有人把它当真。


所以,当他们自己的逻辑在凌晨 3 点 45 分,带着一瓶汽油出现时,也就不该再表现得如此惊讶。



[原文链接]