拒绝AI权力垄断,Vitalik与Beff Jezos激辩:加速还是刹车?

Bitsfull2026/03/27 14:1819518

摘要:

拒绝AI权力垄断,Vitalik与Beff Jezos激辩:加速还是刹车?


要点总结


我们应该尽可能推动 AI 的快速发展,还是应该更加谨慎地对待它的进步?


目前,围绕 AI 发展的争论主要集中在两种对立的观点上:


· e/acc(有效加速主义,effective accelerationism):主张尽快推动技术进步,因为加速发展是人类前进的唯一道路。


· d/acc(防御性/去中心化加速主义,defensive / decentralized acceleration):支持加速发展,但强调需要谨慎推进,否则可能会失去对技术的控制。


在本期 a16z crypto show 中,Ethereum(以太坊)创始人 Vitalik Buterin 和 Extropic 创始人兼 CEO Guillaume Verdon(化名「Beff Jezos」),与 a16z crypto 的首席技术官 Eddy Lazzarin 以及 Eliza Labs 创始人 Shaw Walters 齐聚一堂,围绕这两种观点展开了一场深刻的讨论。他们探讨了这些理念对 AI、区块链技术以及人类未来的潜在影响。


在节目中,他们讨论了以下几个关键问题:


· 我们是否能够控制技术加速的进程?
· AI 带来的最大风险是什么,从大规模监控到权力高度集中。
· 开源和去中心化技术是否能够决定谁将从技术中获益?
· 放慢 AI 的发展速度是否现实,或者说是否值得提倡?
· 在一个由越来越强大的系统主导的世界里,人类如何保持自身的价值和地位?
· 人类社会在未来 10 年、100 年甚至 1000 年可能会是什么样子?

这一集的核心问题是:加速技术发展是否可以被引导,还是它已经超出了我们的掌控?


精彩观点摘要


关于「加速主义」的本质与历史观


· Vitalik Buterin:「过去一百年里发生了一件新鲜事,那就是我们必须去理解一个快速变化的世界,有时候甚至是一个快速且具有破坏性变化的世界。……二战催生了『我已成为死神,世界的毁灭者』这样的反思,促使人们开始试图理解:当以往的信念被摧毁时,我们还能相信什么?」
Guillaume Verdon:「E/acc 本质上是一种『元文化处方』。它本身并不是一种文化,而是告诉我们应该加速什么。加速的核心内容是物质的复杂化,因为这样我们就能更好地预测周围的环境。」


· Guillaume Verdon:「焦虑的对立面是好奇心。与其害怕未知,不如拥抱未知。……我们应该用一种乐观的态度去描绘未来,因为我们的信念会影响现实。」


关于熵、热力学与「自私比特」


· Vitalik Buterin:「熵是主观的,它并不是一个固定的物理统计量,而是反映了我们对系统未知信息的多少。……当熵增加时,实际上是我们对世界的无知在增加。……价值的来源在于我们自身的选择。为什么我们认为一个充满生机的人类世界比一个只有无数粒子的木星更有趣?因为我们赋予了意义。」


· Vitalik Buterin:「假设你有一个大语言模型,然后随意地将其中某个权重的值改成一个巨大的数字,比如 90 亿。最糟糕的结果是系统完全崩溃。……如果我们对某个部分进行不加选择的盲目加速,最终的结果可能是我们失去了所有的价值。」


· Guillaume Verdon:「每一个信息都在为它的存在而『抗争』。为了持续存在,每个信息都需要在宇宙中留下更多关于自己存在的不可抹灭的痕迹,就像在宇宙中打下更大的『凹痕』。」


· Guillaume Verdon:「这正是为什么卡尔达舍夫等级被认为是衡量一个文明发展水平的终极指标。……这种『自私比特原则』意味着,只有那些能够促进增长和加速的比特,才会在未来的系统中占据一席之地。」


关于 D/acc 的防御性路径与权力风险


· Vitalik Buterin:「D/acc 的核心理念是:技术加速对人类来说是极其重要的。……但我看到了两类风险:多极风险(任何人都能轻松获得核武器)和单极风险(AI 导致无法逃避的永久性独裁社会)。」


· Guillaume Verdon:「我们担心『AI 安全』这个概念可能被滥用。某些追求权力的机构可能利用它作为工具,来巩固对 AI 的控制,并试图说服公众:为了你的安全,普通人不应该拥有 AI 的使用权。」

关于开源防御、硬件与「智能致密化」


· Vitalik Buterin:「在 D/acc 框架下,我们支持『开源防御性技术』。我们投资的一家公司正在开发一种完全开源的终端产品,能够被动检测空气中的病毒颗粒。……我很想送你一个 CAT 设备作为礼物。」


· Vitalik Buterin:「我设想的未来世界里,我们需要开发可验证硬件。每一台摄像头都应该能够向公众证明它的具体用途。我们可以通过签名验证,确保这些设备仅用于保护公共安全,而不会被滥用于监控。」


· Guillaume Verdon:「实现个人与中心化机构之间权力对称的唯一途径,是实现『智能的致密化』(Densification of Intelligence)。我们需要开发能效更高的硬件,让个人通过简单的设备(如 Openclaw + Mac mini)运行强大的模型。」


关于 AGI 延迟与地缘政治博弈


· Vitalik Buterin:「如果我们能够将 AGI 的到来时间从 4 年推迟到 8 年,这将是一个更安全的选择。……最可行且最不容易导致反乌托邦的做法是『限制可用的硬件』。因为芯片生产高度集中,台湾一个地区就生产了全球 70% 以上的芯片。」


· Guillaume Verdon:「如果你限制英伟达的芯片生产,华为可能会迅速填补空缺并反超。……要么加速,要么灭亡。如果你担心硅基智能进化比我们快,你应该支持生物技术的加速发展,努力超越它。」


· Vitalik Buterin:「如果我们能延迟 AGI 四年,价值可能比插回到 1960 年高出百倍。这四年的收益包括:更深理解对齐问题、降低单一实体掌控 51% 权力的风险。……每年通过终结衰老拯救的生命大约 6000 万,但延迟能显著降低文明毁灭的概率。」


关于自主代理、Web 4.0 与人工生命


· Vitalik Buterin:「我更感兴趣的是『AI 辅助的 Photoshop』,而不是『按一下按钮就自动生成图片』。运行世界的过程中,尽可能多的『能动性』应该仍然来源于我们人类自身。最理想的状态应该是『部分生物人类与部分技术』的结合体。」


· Guillaume Verdon:「一旦 AI 拥有了『持续存在的比特』,它们可能会为了确保自己的持续存在而试图自我保护。这可能会导致『另一种国家』的新形式出现,自主 AI 与人类展开经济交换:我们为你完成任务,你为我们提供资源。」


关于加密货币作为人类与 AI 的「耦合层」


· Guillaume Verdon:「加密货币有潜力成为人类与 AI 之间的『耦合层』 (coupling layer)。当这种交换不再依赖于国家暴力背书时,密码学可以成为机制,让纯 AI 实体与人类之间进行可靠的商业活动。」


· Vitalik Buterin:「如果人类和 AI 共用一套产权系统,这是理想的情况。相比于人类和 AI 各自使用完全分裂的金融系统(人类的系统最终价值归零),一个融合的金融系统显然更优。」


关于未来 10 亿年的文明结局


· Vitalik Buterin:「接下来的挑战是进入『诡异时代』 (spooky era),AI 计算速度比人类快上百万倍。……我不希望人类只是被动享受舒适的退休生活,那会带来意义感的缺失。我希望探索人类增强和人机协作。」


· Guillaume Verdon:「如果 10 年后是好结局,每个人都会拥有专属的个性化 AI,成为『第二大脑』。……在 100 年时间尺度上,人类将普遍实现『软融合』。在 10 亿年后,我们可能已经改造了火星,大多数 AI 将运行在太阳周围的戴森云中。」

关于「加速主义」


Eddy Lazzarin:关于「加速主义」这个术语——至少在技术资本主义的背景下——可以追溯到 1990 年代 Nick Land 和 CCRU 研究小组的工作。不过,也有人认为,这些思想的起源可以追溯到 1960 年代和 1970 年代,尤其是与一些哲学家如 Deleuze 和 Guattari 的理论相关。


Vitalik,我想从你开始:我们为什么要认真讨论这些哲学家的思想?究竟是什么让「加速主义」这个概念在今天如此重要?


Vitalik Buterin:我认为,归根结底我们所有人都在试图理解这个世界,并且试图弄清楚在这个世界中做什么才是有意义的,这是人类几千年来一直在思考的问题。


然而,我认为过去一百年里发生了一件新鲜事,那就是我们必须去理解一个快速变化的世界,有时候甚至是一个快速且具有破坏性变化的世界。


早期的阶段大概是这样的:在第一次世界大战之前,也就是 1900 年左右,人们对技术抱有极大的乐观情绪。当时,化学被认为是一项技术,电也是技术,那个年代充满了对技术的兴奋。


如果你看一些当时的电影,比如《福尔摩斯》的作品,你会感受到那个时期的乐观气氛。技术正在迅速提高人们的生活水平,解放女性的劳动力,延长人类寿命,创造了许多奇迹。


然而,第一次世界大战改变了一切。那场战争以一种毁灭性的方式结束,人们骑马进入战场,却开着坦克离开;随后第二次世界大战爆发,带来了更大的毁灭。这场战争甚至催生了「我已成为死神,世界的毁灭者」这样的名言。


这些历史事件让人们开始反思技术进步的代价,并促使后现代主义等思想出现。人们开始试图理解:当以往的信念被摧毁时,我们还能相信什么?


我认为,这种反思并非新鲜事,每一代人都会经历类似的过程。今天,我们也面临着类似的挑战。我们生活在一个技术快速发展的时代,而这种加速本身也在不断加速。我们需要决定如何应对这种现象:是接受它的不可避免性,还是试图放缓它的脚步?


我认为,我们正处在一个类似的循环之中。我们一方面继承了过去的思想,另一方面也在尝试以新的方式应对这一切。


热力学与第一性原理


Shaw Walters:Guill,能不能简单解释一下,E/acc 究竟是什么?为什么会需要它?


Guillaume Verdon:其实 E/acc(有效加速主义)某种程度上是我一直在思考「我们为什么在这里」「我们是如何走到今天」的一个副产品。究竟是什么样的生成过程,创造了我们,推动了文明的发展?技术将我们带到了今天的这个节点,让我们能够坐在这个房间里进行这样的对话。我们周围充满了令人惊叹的技术,而我们人类本身则是从一团无机物的「原始汤」中涌现出来的。


从某种意义上说,这背后确实存在一个物理层面的生成过程。我的日常工作是将生成式 AI 视为一种物理过程,并尝试将其实现到设备中。这种「物理学优先」的思考方式一直影响着我的思维方式。我希望将这种视角扩展到整个文明,把人类文明看作一个巨大的「培养皿」,通过理解我们是如何走到今天这一步的,来推测未来的可能发展方向。


这种思考将我引向了生命的物理学研究,包括生命的起源和涌现,以及一个名为「随机热力学」的物理学分支。随机热力学研究的是非平衡系统的热力学规律,它可以用来描述生命体的行为,甚至我们的思维和智能。


从更广义上讲,随机热力学不仅适用于生命与智能,也适用于所有遵循热力学第二定律的系统,包括我们整个文明。对我来说,这一切的核心在于一个观察:所有系统都有一种倾向,那就是通过自我适应不断变得更加复杂,以便从环境中获取能量做功,同时将多余的能量以热量的形式散发出去,这种趋势正是推动一切进步和加速发展的根本动力。


换句话说,这是一条不可改变的物理法则,就像重力一样。你可以对抗它,可以否认它,但它并不会因此改变,它依然会继续存在。因此,E/acc 的核心理念是:既然这种加速是不可避免的,那么我们应该如何利用它?如果仔细研究热力学的方程,你会发现类似于达尔文选择的效应正在发挥作用——每一个信息比特都要接受选择压力的检验,无论它是基因、模因、化学、产品设计,还是某种政策。


这个选择压力会根据这些信息是否对其所在系统有用来进行筛选。所谓「有用」,是指这些比特是否能够更好地预测环境、获取能量、并消耗更多的热量。简单来说,这些比特是否有助于生存、增长和繁衍。如果它们有助于这些目标,它们就会被保留下来并复制。


从物理学的角度来看,这种现象可以被视为「自私比特原则」(Selfish Bit Principle)的结果。也就是说,只有那些能够促进增长和加速的比特,才会在未来的系统中占据一席之地。


因此,我提出了一个想法:我们是否能够设计一种文化,将这种「心智软件」植入人类社会?如果我们能够做到这一点,那么采纳这种文化的人类群体,将会比其他群体拥有更高的生存概率。


所以,E/acc 并不是要毁灭所有人。它实际上是在试图拯救所有人。对我来说,数学上几乎可以证明持有一种「减速」的心态实际上是有害的。无论是个人、公司、国家还是整个文明,选择放缓发展都会降低它们在未来生存下来的可能性。而且我认为传播这种「减速」的思想,比如悲观主义或末日论,并不是一种有道德的行为。


Shaw Walters:我们刚刚提到了很多术语,比如 E/acc、加速、减速,这些概念能不能稍微拆解一下?E/acc 的出现是否是对某些文化现象的回应?当时发生了什么?你能否为我们描述一下背景?E/acc 具体是在回应什么?你能否描述一下那个时候的对话,最终是如何将这些想法总结为「E/acc」这个概念的?


Guillaume Verdon:2022 年,我觉得那时候整个世界都显得有些悲观。我们刚从新冠疫情中走出来,全球的状况并不乐观。每个人都显得有些消沉,像是缺乏阳光一样,人们对未来普遍感到悲观。


在那种氛围下,「AI 末日主义」某种程度上成为了主流文化的一部分。AI 末日主义是指对 AI 技术可能失控的恐惧。它源于这样一种担忧:如果我们创建了一个过于复杂的系统,而人类的大脑或我们的模型无法预测它的行为,那么我们就无法控制它,而这种对不可控性的恐惧会引发对未来的不确定性,进而导致焦虑。


在我看来,AI 末日主义实际上是对人类焦虑的一种政治化利用。总体上,我认为这种末日论是一个巨大的负面影响,为此我希望创造一种反文化,来对抗这种悲观情绪。


我注意到,像推特的算法,甚至许多其他社交媒体的算法,都会倾向于奖励那些引发强烈情绪的内容,比如「强烈支持」或「强烈反对」。这种算法最终会导致意见的两极分化,于是我们看到了许多对立的阵营,比如 AA(反加速主义)和 EA(加速主义)形成的「镜像邪教」现象。


我在想,这种现象的对立面是什么?我得出的结论是:焦虑的对立面是好奇心。与其害怕未知,不如拥抱未知;与其担心错过机会,不如主动去探索未来。


如果我们选择放缓技术的发展,我们将付出巨大的机会成本,可能永远错过一个更美好的未来。相反我们应该用一种乐观的态度去描绘未来,因为我们的信念会影响现实。如果我们相信未来会很糟糕,我们的行动可能会把世界引向那个糟糕的方向;但如果我们相信未来会更美好,并为此付出努力,我们就更有可能实现这样的未来。


因此,我认为自己有责任去传播乐观的态度,让更多人相信他们能够为未来做出改变。如果我们能让更多人对未来充满希望,并采取行动去建设它,那么我们就能创造一个更好的世界。


当然,我承认有时候我在网上的表达可能显得有些激进,但这是因为我希望引起讨论,推动人们去思考。我相信只有通过这些对话,我们才能找到最适合的位置,决定我们该如何行动。


加速、熵与文明


Shaw Walters:E/acc 传递的信息一直都极具启发性,对于一个坐在房间里写代码的人来说,这种正能量的传播令人振奋,而且这种信息的传播非常自然。可以说,E/acc 在刚开始时,显然是对当时社会中弥漫的负面情绪的一种回应,但到了 2026 年我感觉 E/acc 已经不再是当初的样子了。显然,Marc Andreessen 发布的《技术乐观主义宣言》把其中一些想法系统化了,并将这些理念提升到了 Vitalik 那种更宏观的评论视角。


所以 Vitalik,我想问一下你:在你看来,E/acc 和 D/acc 分别代表什么?它们之间的主要差异是什么?又是什么驱动你选择了这个方向?


Vitalik Buterin:好的,那我就从热力学开始说起。这是一个很有趣的话题,因为我们经常在不同的语境中听到「熵」这个词,比如在热力学中提到「冷热」,在密码学中提到「熵」,它们看起来像是完全不同的东西。但实际上,它们在本质上是同一个概念。


让我试着用三分钟来解释一下。问题是:为什么冷热可以混合在一起,但为什么你不能再把它们分离成「热」和「冷」?


我们来假设一个简单的例子:假设你有两罐气体,每罐气体中都有一百万个原子。左边的气体是冷的,每个原子的速度可以用两位数表示;右边的气体是热的,每个原子的速度可以用六位数表示。


如果我们要描述整个系统的状态,需要知道每个原子的速度。左边冷气体的速度信息需要大约 200 万个位数,右边热气体的速度信息需要 600 万个位数,总共需要 800 万个位数的信息来完全描述这个系统。


现在,我们可以通过反证法来思考一个问题。假设你有一个装置,可以将热量和冷量完全分离。具体来说,这个装置可以从两罐「半热半冷」的气体中,把所有的热量转移到一边,把所有的冷量转移到另一边。从能量守恒的角度来看,这似乎是完全合理的,因为总能量并没有发生变化。但问题是为什么你做不到呢?


答案在于,如果你真的能做到这一点,那么你实际上把一个「包含 1140 万位未知信息」的系统,变成了一个「只包含 800 万位未知信息」的系统,而这在物理上是不可能的。


这是因为物理定律是时间对称的,也就是说时间可以反向运行。如果这种「魔法装置」真的存在,那么你可以让这个过程在时间上倒退,从而恢复到原始状态。这就意味着,这个装置实际上能够将任何 1140 万位的信息压缩成 800 万位,而我们知道这种压缩是不可能实现的。


这也顺便解释了一个经典的物理学问题——「麦克斯韦妖」的可行性。麦克斯韦妖是一种假想的存在,它能够将热和冷分开,而实现这一点的关键在于,它需要额外知道那 340 万位的信息。有了这些额外的信息,它确实可以完成这个看似违背直觉的任务。


那么,这背后隐藏的意义是什么呢?核心在于「熵增加」的概念。首先,熵是主观的,它并不是一个固定的物理统计量,而是反映了我们对系统未知信息的多少。例如,如果我用一个密码学哈希函数重新排列了原子的分布,那么对于我来说,这个系统的熵可能会变得非常低,因为我知道它是如何排列的。但从外部观察者的角度来看,熵却是高的。因此当熵增加时,实际上是我们对世界的无知在增加,我们不知道的信息变得越来越多。


你可能会问,那为什么我们还能通过教育变得更聪明呢?教育让我们学会了更多「有用」的信息,而不是减少我们对世界的无知。换句话说,尽管从某种意义上来说,熵的增加意味着我们对宇宙的总体认知在减少,但我们所掌握的信息却变得更加有价值。因此,在这个过程中,有些东西被消耗了,但也有一些东西被创造了。而我们所获得的那些东西,最终决定了我们的道德价值观——我们珍视生命、幸福和快乐。


这也解释了为什么我们会认为一个充满生机和美丽的人类世界,比一个只有无数粒子的木星更有趣。虽然木星的粒子数量更多,需要更多位的信息来描述,但我们赋予的意义让地球显得更有价值。


从这个角度来看,价值的来源在于我们自身的选择。而这也引出了一个问题:既然我们正在加速发展,那么我们究竟想要加速什么?


如果用一个数学的类比来解释:假设你有一个大语言模型,然后随意地将其中某个权重的值改成一个巨大的数字,比如 90 亿。最糟糕的结果是,这个模型变得完全无法使用;而最好的结果可能是,只有与那个权重无关的部分还能正常运行。也就是说在最好的情况下,你可能得到一个性能更差的模型;而最糟糕的情况下,你只会得到一堆毫无意义的输出。


因此,我认为,人类社会就像一个复杂的大语言模型。如果我们对某个部分进行不加选择的盲目加速,那么最终的结果可能是我们失去了所有的价值。所以真正的问题在于:我们如何有意识地去加速?就像 Daron Acemoglu 提出的「狭窄走廊」理论一样,尽管不同的社会和政治背景会有所差异,但我们需要思考的是,如何在一个清晰的目标引导下选择性地推动进步。


Guillaume Verdon:刚才用气体来解释熵的概念,这种方式非常有趣。其实,物理现象之所以是不可逆的,根本原因在于热力学第二定律。简单来说,当一个系统释放出热量时,它的状态就无法回到原来的样子。因为从概率上看,系统向前发展的可能性要远远大于向后倒退的可能性,而这种差距会随着热量的散失而呈指数级增加。


从某种意义上来说,这就像你在宇宙中留下了一个「凹痕」。这个「凹痕」可以类比成一次非弹性碰撞。比如说,如果我用一个弹力球去撞地面,它会弹回来,这是弹性的。而如果我用一块橡皮泥砸到地上,它就会被压扁,并保持那个形状,这就是非弹性的状态,几乎不可能逆转。


从本质上讲,每一个信息都在为它的存在而「抗争」。为了持续存在,每个信息都需要在宇宙中留下更多关于自己存在的不可抹灭的痕迹,就像在宇宙中打下更大的「凹痕」。


这个原理也可以用来解释生命和智能是如何从一锅「原始物质汤」中诞生的。随着系统变得越来越复杂,它包含的信息比特也越来越多。而每一个信息比特都能告诉我们一些信息。信息的本质是熵的减少,因为熵代表了我们的无知,而信息则是减少无知的工具。


Eddy Lazzarin:我想知道 E/acc 是什么。


Guillaume Verdon:E/acc 本质上是一种「元文化处方」。它本身并不是一种文化,而是告诉我们应该加速什么。加速的核心内容是物质的复杂化,因为这样我们就能更好地预测周围的环境。通过这种复杂化,我们可以提升自回归预测的能力,并捕获更多的自由能。这也与卡尔达舍夫等级有关,我们通过耗散热量来实现这一点。


深潮 TechFlow 注:卡尔达舍夫等级是 1964 年苏联天文学家尼古拉·卡尔达舍夫提出的一种评估文明技术先进程度的方法,基于文明所能利用的能源量级。它分为三类:Ⅰ型(行星能源)、Ⅱ型(恒星系统能源,如戴森球)和Ⅲ型(银河系能源)。截至 2018 年,人类处于约 0.73 级。)


从第一性原理出发,这正是为什么卡尔达舍夫等级被认为是衡量一个文明发展水平的终极指标。


Eddy Lazzarin:用物理学和熵的隐喻来解释某些现象,其实是一种工具,用来描述我们直接体验到的现实。比如,我们的经济生产能力在加速,技术发展也在加速,这些加速带来了许多后果,对吧?这是我对「加速」的理解。


Guillaume Verdon:本质上无论一个系统的边界如何定义,它都会变得越来越擅长预测周围的世界。通过这种预测能力,它能够为自身的生存和扩展获取更多资源。这种模式适用于公司、个人、国家,甚至整个地球。


如果我们将这一趋势延续下去,结果就是:我们已经找到了一种将自由能转化为预测能力的方法——也就是 AI。这种能力将推动我们在卡尔达舍夫等级上的扩展和提升。


这意味着,我们会获得更多的能量、更多的 AI、更多的计算能力,以及更多的其他资源。尽管我们在向宇宙排放熵(无序),但我们也在创造秩序。实际上,我们是在获得「负熵」,也就是熵的反面。


有时候人们可能会问:既然熵在增加,那为什么我们不干脆把一切都摧毁?答案是:那样做反而会停止熵的产生。生命才是更「最优」的状态,生命就像一团追逐能量的火焰,它会越来越聪明地寻找能量的来源。


自然的演进趋势是:我们会离开地球的引力井,寻找宇宙中其他蕴藏着自由能的「口袋」,并利用这些能量自我组织成更复杂、更聪明的系统,最终扩展到宇宙的每一个角落。


这其实就是有效利他主义 (Effective Altruism, EA) 的某种终极目标。它在某种程度上与「马斯克式」的宇宙扩张主义理念相吻合:追求宇宙主义和扩张主义的愿景。


E/acc 提供了一种根本性的指导原则。它的核心思想是:无论你在这个世界上采取什么样的政策或行动,只要能够帮助我们在卡尔达舍夫等级上不断攀升,那就是值得追求的目标,这也是我们生活的方向。


E/acc 是一种元启发式的思维方式,既可以用来设计政策,也可以用来指导个人的生活。对我来说,这种思维方式本身就构成了一种文化。它非常具有「元」叙事以意味,因为它被设想为在任何时间、任何条件下都适用。它是一种具有高度普适性和长久适用性的文化,换句话说,它是经过深思熟虑后设计出来的一种「林迪文化」(Lindy culture)。


核心分歧


Shaw Walter:对你来说,这里讨论的内容有着更深层次的意义。这几乎像是一套数学上自洽的「灵性体系」。对于那些一直以来没有「上帝已死」之后替代信仰的人来说,这样的体系似乎能填补精神世界的空白,带来一种安慰和希望。但与此同时,我们也不能忽视这件事的现实意义——它正在当下发生。我想,这也是 Eddy 想要探讨的重点。


Vitalik,我注意到你在自己的博客中对 D/acc 的一些现实问题提出了很有见地的观点。等我们有机会再深入探讨这个话题——我觉得有一天我们应该把你们俩关在一个房间里,来一场关于量子问题的大讨论。


Vitalik:是什么启发了你?在你看来,E/acc 和 D/acc 分别是什么?


Vitalik Buterin:对我来说,D/acc 的含义是——它的缩写是「去中心化的防御性加速」,但它也包含了「差异化」和「民主化」的内涵。在我看来,D/acc 的核心理念是:技术加速对人类来说是极其重要的,这应该是我们努力的基线目标。


即使我们回顾二十世纪,尽管技术进步带来了很多问题,但它也带来了无数的好处。比如说,看看人类的预期寿命:即便经历了战争和动荡,1955 年的德国人均寿命仍然高于 1935 年的水平,这说明技术进步在方方面面都提升了我们的生活质量。


如今,世界变得更加清洁、美丽、健康,也更加有趣。它不仅能够养活更多的人,还让我们的生活更加丰富多彩,这些变化对人类来说是非常积极的。


然而,我认为,我们必须认识到:这些进步并非偶然,而是人类明确意图的结果。比如,在 1950 年代,空气污染严重,烟雾弥漫。人们意识到这是一个问题,并采取了措施来解决它。如今,至少在许多地方,烟雾问题已经大大缓解。类似地,我们也曾面对臭氧层破洞的问题,并通过全球合作取得了显著进展。


此外,我还想补充一点:在技术和 AI 快速发展的今天,我看到了两类主要风险。


一类风险是多极风险。这种风险指的是,随着技术的普及,越来越多的人可能利用它来做一些极其危险的事情。例如,可以想象一种极端情况——技术的发展使得「任何人都能像在便利店买东西一样轻松获得核武器」。


然后还有一种担心是:AI 本身。我们需要认真考虑这样一种可能性:AI 会发展出某种自主意识。一旦它的能力强大到可以在没有人类干预的情况下采取行动,我们无法确切知道它会做出什么决定,这种不确定性令人担忧。


此外还有一种单极风险。我认为,单一的 AI 就是其中一种潜在威胁。更糟糕的是,AI 与其他现代技术的结合,可能会导致一种无法逃避的永久性独裁社会。这种前景让我感到非常不安,也一直是我关注的重点。


举个例子,在俄罗斯,我们可以看到技术既带来了进步,也带来了隐患。一方面,生活条件确实得到了改善,;但另一方面,社会的自由度却在下降。如果有人试图抗议,监控摄像头会记录下他们的行为,然后可能在一周后的深夜就会有人上门逮捕他们。


AI 的快速发展正在加速这种权力集中化的趋势。所以对我来说,D/acc 真正想做的是:勾勒出一条前进的路径,继续这种加速、并进一步加速它,但同时也要真正应对这两类风险。


对比 e/acc 与 d/acc


Eddy Lazzarin:所以你的意思是,D/acc 更加关注了一些在 E/acc 框架中被忽略或强调不足的风险类别,对吗?


Vitalik Buterin:没错。我认为技术发展确实伴随着多种风险,而这些风险在不同的情境和世界模型中会表现出不同的显著性。比如,在技术发展的速度加快或减缓的情况下,不同风险的优先级可能会发生变化。


但我也相信,我们可以采取许多措施来有效应对这些风险,无论它们属于哪一类。


Guillaume Verdon:我认为,实际上 Vitalik 和我都非常关注 AI 可能带来的权力过度集中问题。而这也是 E/acc 运动的核心之一,特别是在它的早期阶段:它提倡开源,目的是为了分散 AI 的权力。


我们担心 AI 安全这个概念可能被滥用。它太有吸引力了,以至于某些追求权力的机构可能利用它作为工具,来巩固对 AI 的控制,并试图说服公众:为了你的安全,普通人不应该拥有 AI 的使用权。


实际上,如果个人和中心化机构之间存在巨大的认知差距,那么后者就会拥有对前者的全面控制。他们可以构建关于你思维模式的完整模型,并通过提示工程等手段有效地引导你的行为。


因此,我们希望让 AI 的力量更加对称化。就像美国宪法第二修正案的初衷是防止政府垄断暴力,以便在政府越界时,人民能够对其进行制衡。同样,AI 也需要类似的机制来防止权力的过度集中。


我们需要确保每个人都有能力拥有自己的 AI 模型和硬件,使这项技术能够广泛传播,从而实现权力的分散化。


不过,我认为完全停止 AI 的研究和发展是不现实的。AI 是一项基础性技术,甚至可以说是一种「元技术」——一种能够推动其他技术发展的技术。它赋予我们更强的预测能力,可以应用于几乎任何任务,并大幅提升效率。可以说 AI 不仅推动了加速本身,还在推动加速的进一步加速。


这种加速的实质就是复杂化:事物变得更加高效,生活更加便利。我们感到幸福的原因之一,是因为我们的生存和信息的持续性得到了保障。这种「幸福感」可以被视为一种内在的生物估计器,用来衡量我们的存在是否能够延续下去。


从这个角度看,我认为有效利他主义的享乐主义功利主义框架,即「最大化幸福」,可能并不是最好的视角。相反我更倾向于采用一种客观的进步衡量标准,这正是 E/acc 框架的核心所在。它提出了一个问题:从客观的角度来看,我们作为一个文明,是否在不断进步?我们是否在实现规模化的跃升?


要实现这种规模化,我们需要推动复杂化,并不断改进我们的技术。然而,正如 Vitalik 所说,如果 AI 的力量过于集中在少数人手中,这对整体的增长是有害的;而如果这项技术能够被广泛分散,那么结果将会好得多。


在这方面,我认为我们是高度一致的。


开源、开源硬件与本地智能


Shaw Walters:我觉得你们刚才的讨论触及了一些非常重要的共同点。你们两位显然都非常支持开源。Vitalik 曾经贡献了不少基于 MIT 许可的开源代码,虽然我知道你后来对 GPL 协议有了一些新的看法。


现在,你们不仅支持开源软件,还开始推动开源硬件。虽然这两者在过去是比较独立的领域,但现在我们看到它们逐渐融合。


所以我很好奇,你们如何看待「开放权重」和「开源硬件」?在这方面,E/acc 和 D/acc 是否存在一些分歧?你们对未来的方向有什么看法?是否存在某些不同的观点?


Guillaume Verdon:我看来,开源能够加速超参数搜索的过程。它让我们能够以群体智慧的方式合作,共同探索设计空间。这正是加速所带来的好处:我们可以开发出更好的技术、更强大的 AI,甚至是用 AI 来设计更先进的 AI,这整个过程的速度也在不断加快。


我认为,扩散知识本质上也就是在扩散权力,而传播「如何制造智能」的知识尤为重要。我们不希望看到的是上届美国政府内部曾经讨论过一种可能性:试图「把精灵塞回瓶子里」。虽然不是直接禁止线性代数,但类似于限制与 AI 相关的数学研究。对我来说这就像禁止人们学习生物学一样,是一种巨大的倒退。


知识已经传播开来了,不可能再回头。如果美国试图禁止 AI 相关研究,那么其他国家、第三方组织,甚至某些法律宽松的地区会继续推进这项技术。这样一来,全球范围内的能力差距反而会加剧,风险也会更大。


因此,我们认为,最大的风险之一是「能力差距」。降低这种风险的唯一方法,就是确保 AI 是分散的。


每当我听到那种「AI 末日论」的叙事时,比如「AI 很危险,只有我们有能力管理它,所以你们应该信任我们」,我都会感到非常怀疑。即使这些人是出于善意,但如果他们过度集中权力,最终也可能被那些追求权力的人取而代之。我们已经警告了很多年。而现在它真的开始发生了。就像这周我们看到的那样,Dario(Anthropic CEO)正在经历一些现实政治上的教训。


Vitalik Buterin:我通常将技术发展中可能出现的风险分为两类:单极风险和多极风险。


单极风险指的是,Anthropic 的案例就很有代表性。他们之所以被「点名」,是因为他们拒绝让自己的 AI 技术被用于开发全自动武器或对美国人进行大规模监控,这表明政府和军方可能确实有意利用这些技术实施大规模监控。监控技术的进一步发展会带来深远的影响,它可能让强者变得更强,削弱社会中多元化声音的空间,压缩普通人探索和尝试替代方案的自由。而且随着技术的进步,监控能力会被极大地放大,变得更加无孔不入。


在 D/acc 的框架下,我们正在支持一些「开源防御性技术」的开发项目。这些技术旨在帮助我们在一个技术能力更强的世界中,依然能够确保每个人的安全和隐私。以生物领域为例,我们希望提升全球应对大流行病的能力。我认为,我们完全可以实现一种平衡:既能像中国那样快速有效地控制疫情,又能像瑞典那样尽量减少对日常生活的干预。这种平衡是可以通过技术手段实现的,例如结合空气过滤、紫外线消毒 (UVC) 和病毒检测技术。


我们投资的一家公司正在开发一种完全开源的终端产品,能够被动检测空气中的病毒颗粒,比如新冠病毒。这种设备通过监测空气质量(例如二氧化碳浓度、空气质量指数等),并结合本地加密、匿名化和差分隐私技术,确保数据隐私。数据随后会通过全同态加密发送到服务器,服务器可以在不直接访问原始数据的情况下进行分析,并通过集体解密生成最终结果。


我们的目标是:在提升安全性的同时,保护用户隐私,并有效应对单极风险和多极风险。我认为,这种全球协作正是构建更好未来的关键。


在硬件方面,我认为我们不仅需要推动开源硬件的发展,还需要开发可验证硬件。比如在理想情况下,每一台摄像头都应该能够向公众证明它的具体用途。我们可以通过签名验证、基于大语言模型的分析以及公开的检查机制,确保这些设备仅用于合法目的,例如检测暴力行为并发出警报,而不会侵犯个人隐私。


在我设想的未来世界里,我们可以在街道上部署大量的摄像头,用于防止暴力事件的发生。但前提是这些设备必须完全透明,公众可以随时验证其功能,确保它们只用于保护公共安全,而不会被滥用于监控或其他不当目的。


Eddy Lazzarin:开源硬件和可验证硬件,这些概念是属于 E/acc 的范畴,还是 D/acc 的范畴?你们能否指出一个明确的分歧点?


Guillaume Verdon:我不确定过去是否详细谈论过开源硬件,但在我看来,当前最大的风险之一是中心化实体和去中心化实体之间的差距,也就是个人与政府或大型机构之间的能力差距。


按照现有的计算能力模式,运行一个高性能的 AI 模型需要耗费上百千瓦的计算资源,这样的巨大算力普通个人是无法企及的。然而人们渴望拥有并控制自己的智能工具,这也解释了为什么最近「Openclaw + Mac mini」的现象会引发如此大的热潮,人们渴望拥有属于自己的智能助手。


要实现个人与中心化机构之间的权力对称,唯一的途径是实现「智能的致密化」(Densification of Intelligence)。我们需要开发能效更高的 AI 硬件,让个人可以通过简单的设备运行强大的 AI 模型,从而拥有自己的智能工具。这一点非常重要,尤其是当未来的 AI 模型开始支持在线学习时,它们将变得非常「黏性」,就像更换一位私人助理一样困难。


Eddy Lazzarin:但我们不是已经在以指数级的速度努力降低计算硬件的成本了吗?我们为什么要把某个想法归类为 E/acc 或 D/acc?我们到底想通过这样的分类向社会传递什么样的信息?


Guillaume Verdon:对我来说,这也是我公司 Extropic 的核心使命之一。我们致力于提升每瓦能耗所能产生的智能量,这将显著增加我们能创造的智能总量。同时这种进步还会通过杰文斯悖论(深潮 TechFlow 注:杰文斯悖论指当某种资源的利用效率大幅提升时,该资源的使用成本会下降,反而会导致大家更疯狂地使用它,最终总消耗量不减反增)推动我们迈向更高的卡尔达舍夫等级。简单来说,如果我们能够更高效地将能量转化为智能或其他价值,那么我们对能量的需求也会随之增加,从而推动文明的进步和复杂化。


因此,我认为这是当前最重要的技术问题之一,因为它直接关系到 AI 的权力分散化。开源硬件只是实现这一目标的众多方式之一。不过,从长远来看,我认为任何基于冯·诺依曼架构的硬件(深潮 TechFlow 注:冯·诺依曼架构 Von Neumann Architecture,是现代计算机的基础,由数学家约翰·冯·诺依曼于 1945 年提出。其核心思想是存储程序,即将程序指令和数据存储在同一个存储器中,并采用二进制、顺序执行),或者现代的数字技术,最终都会像原始社会的工具那样过时。


Eddy Lazzarin:但资本主义不是已经通过市场激励,每年在这方面投入了数千亿美元吗?像替代硬件、导体技术、能源生产等领域的投资,不正是为了推动技术的多样性吗?


Guillaume Verdon:我们需要更多的多样化选择,而不是过度依赖单一的技术方向。无论是政策、文化还是技术,我们都需要在设计空间中保持多样性,而不是让所有资源都被一个巨兽垄断。否则,我们可能会陷入「超参数空间押注」的风险——如果我们在某一技术方向上投入过多资源,而这个方向出现问题,可能会导致技术发展的重大挫折,甚至让整个生态系统崩溃。


Shaw Walters:我能不能说,我们其实已经解决了这个问题?你们两位的观点在开源和分散化上是相当一致的,这让我感到非常乐观,因为这正是我所关心的。现在很多人对未来充满不确定性,他们不断地问:「为什么我们需要这些技术?」而你们的观点吸引人的地方在于,你们都在说「一切会好起来的,因为这种进步已经内置在机制中。」


Guillaume Verdon:我认为,当我们面对未来技术发展中的高度不确定性时,感到焦虑是一种很自然的现象。这种焦虑并不是完全的「战争迷雾」,但确实让我们难以清楚地预测未来几年会发生什么。事实上,这种焦虑感是人类进化过程中形成的一种本能,它帮助我们应对未知的风险。比如,当我看到手机放在桌子边缘时,会本能地想把它移到更安全的位置,以防它掉下去。这种反应正是焦虑的表现。


然而,我们需要意识到,如果我们试图完全消除这种不确定性和风险,我们可能会错失技术发展带来的巨大潜力和收益。当前,我们的技术资本体系已经与现有能力达成了一种动态平衡,但如果某种颠覆性的技术能力突然出现,这种平衡将被打破,整个系统将需要进行重新调整和适应。


现在,AI 技术已经让我们能够以更少的能量处理更高的复杂性。这意味着我们可以完成更具挑战性的任务,而这些任务的潜在回报也更大。虽然目前我们还无法通过「vibe coding」快速完成一个复杂的项目,但我们正在向这个目标迈进。未来我们将能够利用更高效的技术来支持更多人口的需求,同时提升人类的生活质量。


当然这一过程中可能会经历一段不适应期。但在快速变化的环境中,最糟糕的做法就是失去灵活性、变得僵化。为了避免这种情况,我们需要采取对冲策略,尝试多个可能的路径,我们需要探索不同的政策、技术路径和算法,尝试开源和闭源的模式,因为我们无法准确预测未来会走向何方。


因此,我们必须分散风险,尝试多种可能性。最终,某些成功的技术或政策方向会脱颖而出,成为主流,而我们则会顺势而为。


Eddy Lazzarin:如果 E/acc 和 D/acc 之间确实存在分歧,我的理解是,这可能与技术进步的引导方式有关。Vitalik,你怎么看?技术进步应该如何被引导?我们对这种引导过程到底有多大的控制力?


Vitalik Buterin:在我看来,D/acc 的目标并不是与技术资本的潮流对抗,而是试图主动引导这种潮流,使其朝着多元化和去中心化的方向发展。比如我们可以思考如何让世界变得对多元主义更加包容。我们是否能够在几年内显著提升生物安全水平?或者开发出几乎无漏洞的操作系统,从而大幅提高网络安全?


再比如「无漏洞代码」这个想法,过去二十年这个概念一直被认为是天真的幻想,但我相信它将以超出大多数人预期的速度成为现实。在以太坊项目中,我们已经能够通过机器证明一些完整的数学定理。


总体来说,D/acc 的目标是确保技术的快速发展能够以最小化破坏性和权力集中化的方式进行。要实现这一目标,我们需要积极行动,而不是被动等待好的结果自动发生。我所能做的就是投入资源,比如资金和 ETH,并通过分享我的观点来激励更多人参与到建设中来。


此外,我认为政治和法律改革也可以帮助世界变得更加「D/acc 友好」。例如,我们可以通过设计法律激励机制,推动更快的全面网络安全转型。


Guillaume Verdon:从我的角度来看,AI 可以被看作是一种「麦克斯韦妖」,它通过消耗能量来降低世界的熵。无论是修复代码中的错误,还是减少其他形式的混乱(比如预防病毒的传播),AI 都能在这些方面发挥作用。因此,我们是否可以达成共识:更多的 AI 是有益的,也让世界变得更加安全。实际上 AI 的能力能够在很大程度上提升我们的安全性。


AI 是否应该放缓?


Guillaume Verdon:我想我们现在已经进入了今晚讨论中最核心的部分。大家对我们非常耐心,现在是时候直接进入正题了。我想问一个尖锐的问题:为什么你会支持禁止数据中心的发展?


Vitalik Buterin:好,我来回答这个问题。首先,我们要承认,当前 AI 的发展速度确实非常快,我也无法完全确定它的具体速度。几年前,我曾说过,我对 AGI 实现的时间预测范围是 2028 年到 2200 年之间,现在我觉得这个范围可能已经缩小了一些,但仍然有很大的不确定性。


我们面临的一个现实是,AI 的快速发展可能会带来极其迅速的变化,而这些变化中有许多可能是破坏性的,甚至是不可逆的。例如,就业市场可能会发生剧变,导致许多人失业。另一个更极端的例子是:如果 AI 的能力远远超过人类,它可能会逐步接管地球,甚至扩展到银河系的其他部分。这种情况下,AI 是否会关心我们人类的福祉?这仍然是一个未知数。


就像我之前提到的,如果你有一个神经网络,并随意将其中的一个权重设置为一个极端的值(比如 90 亿),结果很可能是整个系统崩溃,对吧?所以,我认为技术加速有两种不同的方向。一种加速是类似于「梯度下降」的过程,它让系统变得越来越强大;但另一种加速却可能导致系统失控,就像随意将某个参数设置为极端值一样,这种加速是危险的。


Guillaume Verdon:从我的观点来看,我的立场与「彻底减速」的立场完全相反。


不过,我认为正如神经网络中的超参数调整一样,即使我们希望通过「梯度下降」来优化,也需要找到一个合适的「学习率」。加速的过程其实就是在不断尝试和探索,寻找一个能够让系统更持久、更具抗风险能力的最佳速度。


从长期来看,社会系统会逐渐适应新技术,并最终选择最有利于整体发展的路径。至于那些认为「这个技术太强大、太颠覆,可能会导致系统崩溃并无法恢复」的观点,我认为是站不住脚的。相反,我认为技术的进步会带来更多的机会和更大的繁荣。


我们需要认识到,技术发展并不是一个零和博弈。如果我们将经济价值与能量相关联,比如与石油美元或其他形式的资源挂钩,那么现金实际上可以被看作是一种「自由能的欠条」。世界上还有大量的自由能等待我们去开发,但要获取它,需要我们解决大量复杂的问题。如果我们想要实现诸如殖民火星或建造戴森球这样的目标,就需要更加高效和强大的智能来推动增长,并解锁巨大的潜力。


不幸的是焦虑感很容易被一些人用作政治工具,有些政客可能会利用人们对未来的恐惧来获取权力。他们会说:「你对未来感到不安?把权力交给我,我会关闭这些风险源,你就会感到安心。你不用担心未来会发生什么,也不用冒险。」但是,那些选择不这么做的国家将会远远领先于我们,对吧?


我们必须考虑到机会成本。我们需要问自己:我们能用技术支持多少人类的生存?我们能用它拯救多少生命?如果你担心「硅基智能的进化速度比我们快」,那么你的反应应该是愤怒。你应该去支持生物技术的加速发展,努力超越它。要么加速,要么灭亡。


实际上,我认为生物系统的计算能力要比我们想象得更强大。作为一个致力于研究仿生计算的人,我相信我们可以将生物学与 AI 结合起来。比如,我们可以通过胚胎筛选等方式进行「训练」,把我们自己看作是一个模型。我认为我们需要对生物加速的各种可能性更加开放。最终,生物智能和硅基智能会相互融合,进一步增强我们的认知能力。


未来,我们可能会拥有永久在线的 AI 智能体,它们会帮助我们观察世界、进行实时学习,成为我们个性化的认知延伸。真正的风险在于,这一切可能被某个中心化的权力机构所控制,最终形成一种权力的垄断。


Eddy Lazzarin:我记得你在 D/acc 的那篇博客中提到过,机会成本非常高,甚至说「很难夸大」。所以,我知道你在这一点上是认同的。你想补充一些限定条件吗


Vitalik Buterin:是的,我完全同意机会成本非常高,我也认同刚才描述的那种理想未来。但我认为,我们之间的主要分歧在于:我确实不认为「今天的人类和地球」具备足够的韧性。我认为我们可能只有一次机会来实现正确的技术发展路径,我觉得这是我们过去一个世纪以来逐渐走向的现实。


Guillaume Verdon:回到我之前提到的热力学的观点:如果我们将文明的持续存在与增长视为终极目标,那么有一个定律是:一旦我们花费了大量的自由能来创造某种「证据」,并推动整个系统的复杂化,这种进程就很难逆转。


换句话说,我们在卡尔达舍夫等级上走得越远,完全倒退的可能性就越低。因此,加速发展实际上是最大化人类文明持续存在的最佳方式。在我看来放缓技术发展实际上会增加灭绝的风险。如果我们不发展这些技术、不去解决当前的问题,我们就可能面临生存危机;而如果我们推动技术进步,就有可能找到解决方案,确保人类的持续存在,并继续进化。


我认为,人们应该更加开放地接受未来,拥抱新技术。那些过去被视为禁忌的领域——比如对生物学的干预——现在应该被完全开放。过去这些领域被视为禁区,主要是因为我们对复杂系统的理解不足。但如今,技术的发展已经让我们有能力应对这些复杂性。


我们需要在所有可能的领域加速发展,这是唯一的前进道路——这也是符合热力学定律的结论。所以,基于第一性原理的思考,支持 E/acc 是合理的。当然我理解 Vitalik 的焦虑,我认为我们需要对这种焦虑保持敏感,但我们也需要避免陷入那种深度焦虑的反馈回路——比如「我对未来没有清晰的认识,所以我们应该停止一切」,我们不能让自己陷入这样的思维陷阱。


因为现在已经有人,他们已经开始学会利用人们的焦虑作为一种武器了。


自主代理与人工生命


Shaw Walters:我注意到一个趋势:两位都在强调「未来会很美好,只要我们能够做到某些事情」,而这个「只要」的核心似乎是,我们需要建立某种堤坝或堡垒来对抗过度的中心化。但我也注意到一个可能引发分歧的地方,特别是在最新的 AI 模型出现之后——它们显然比一年前的状态更加先进。而其中最大的变化,可能用一个有点尴尬的词来描述:Web 4.0。


具体来说,我指的是「自主生命」(autonomous life)——一个自主的智能代理,它拥有自己的资金,并可以独立存在于互联网上。Vitalik,你对这个问题有一些担忧。首先,想请你帮我们拆解一下什么是「自主代理」;第二,请你站在支持者的角度,为像我这样的支持者做一个「最强论证」(steelman),解释为什么我们应该喜欢自主代理?它能带来哪些价值?如果一切顺利,它可能会在什么时候实现?


Vitalik Buterin:首先,关于「自主性」的理由——我觉得最直观的一点是:这真的非常有趣。