过去两年,美股 AI 产业链相关板块累计创造了数万亿美元市值。然而新增的市场体量分布极其不均:英伟达一家市值 4.5 万亿美元,毛利率 73%;OpenAI 和 Anthropic 的年化营收加在一起不过 450 亿美元;CoreWeave、Cursor、Perplexity 等中下游公司一边融资一边烧钱。AI 产业呈现出一种越往上游,毛利越厚的三角形结构。
钱究竟流向了哪里,10 年后会流向哪里?这是斯坦福本学期新开的 MS&E 435 课程试图拆解的核心问题。主持人 Apoorv Agrawal 来自投资公司 Altimeter,他请来了行业内的九位行业关键角色,试图从行业领袖的观点中拼凑出 AI 产业价值流向的未来。
三角形价值分布
2024 年初,Agrawal 发表过一篇名为《The Economics of Generative AI》的报告,结论是芯片层吃掉了整条产业链 83% 的毛利。

两年过去了,整个生态的体量从 900 亿美元膨胀到了 4350 亿。芯片层的毛利份额依旧占据统治地位,从 83% 降到了 79%。
拆开来看,芯片层年营收约 3000 亿美元,英伟达一家拿走八成;基础设施层约 750 亿;应用层约 600 亿。三层毛利率分别是 73%、55%、33%。折算成毛利绝对值,依次是 2250 亿、400 亿、200 亿美元。

AI 产业的利润画像,与驱动上一轮科技行业增长的云计算产业截然相反,在传统的云计算堆栈里,芯片层只拿 6% 的毛利,应用层拿走 70%。

Agrawal 精辟的总结了目前的竞争格局:芯片层是单机游戏,应用层是双人游戏,中间的基础设施层是唯一真正在打的多人战场。
英伟达的独角戏
第二节课由 Altimeter 的合伙人 Brad Gerstner 和英伟达的 Sunny Madra 主讲。Sunny 原是 Groq 的投资人,参与撮合了 Groq 被英伟达收购的交易,这两人解释了为什么英伟达会继续在芯片层一家独大。

Brad 给了一组反直觉的估值:英伟达市值 4.5 万亿美元,市盈率 13 倍,只到市场均值一半,而营收年增长 70%。他公开预测英伟达将成为全球第一家十万亿美元公司。他的理由是,接下来八个季度,英伟达已经锁定了万亿美元订单,需求远远压在供给上面。黄仁勋曾对 Brad 表示,推理需求会增长 10 亿倍。
这种自信的背后是从预训练迈向推理时代的技术逻辑——每生成一个 token 的计算量,是模型参数量乘以上下文长度的平方。
自研芯片的挑战者并不少。谷歌第七代 TPU Ironwood 已开始量产,Anthropic 下单了 100 万件,有传闻称这直接迫使英伟达对部分客户降价 30%;亚马逊的 Trainium2 芯片已经部署了 140 万实例,相关业务年化收入突破百亿美元;微软的 Maia 200 今年 1 月在 Azure 上线,OpenAI 也跟博通签下了 10 吉瓦的自研 ASIC 合同。

黄仁勋对此云淡风轻的表示:「很多 ASIC 项目最终会被砍掉。」从历史看,他没说错。退一步讲,就算 TPU、Trainium、Maia 全都跑通,英伟达依然是领先者。以上种种并没有表明英伟达不可替代,它说明的是这个市场究竟大到什么程度。
昂贵的电工
第三节课的主讲是 Crusoe 的创始人 Chase Lochmiller。Crusoe 在德克萨斯州西部的小城阿比林建了一座 2.1 吉瓦的数据中心园区,这是全美最大的私人变电站,用电量比肩两个丹佛市,首批入驻的公司是 Oracle 和 OpenAI。园区常年有 9000 名施工工人,而这座小城的人口不过 12 万。
Chase 在一张幻灯片中拆解了每兆瓦电力的成本构成:总成本约 1900 万美元,其中最大的单项是劳动力,每兆瓦高达 470 万美元,芯片和冷却设备的成本都远远排在后头。照此计算,一个吉瓦(GW)级园区,光是劳动力这一项,每年就要烧掉 47 亿美元。

除了劳动力成本外,燃气轮机的每兆瓦造价,三年内从 100 万美元涨到了 300 万美元。背后原因在于,GE Vernova、西门子、三菱重工和普惠这四大制造商产能原地踏步,而需求却翻了好几倍。

Chase 名牌看空 Eaton、Schneider 这类上百年没怎么动过的电气设备巨头。从长远看,电力架构从 765 千伏高压到机柜内 900 伏直流的整套转换势必要被重新设计,即使短期内,这些老牌工厂还是会继续受益。
组织结构跟不上 AI 发展
第四节课的嘉宾是软件公司 Databricks 的 CEO Ali Ghodsi。他一上来就抛出了一个重磅观点:AGI 已经实现。现在的 AI 模型,早已满足了 2009 年伯克利 AMP 实验室对 AGI 的定义。球其实已经进了,只不过人们一直在把球门往后拉。
人们之所以认为 AI 还不达预期,问题出在自己。

MIT 的一份报告显示,95% 的企业 AI 试点失败,Ali 对此的解释是,模型缺少组织里那些从没人写下来的上下文。
每家公司都有那么一个干了二十年的老员工,所有人遇到难题都去问他,而他脑子里的东西从未进入任何模型。
作为对照,电动机在 1880 年被发明出来,直到 1920 年,才开始在统计学意义上显著提高生产力。中间那四十年,企业只是想当然的把蒸汽机原地换成电动机,没有人想过整个厂房布局都该推倒重来。
Databricks 自己踩过坑,原本需要三个季度才能交付的一个数据连接器,第一次交给 AI 接手,只省下了一个半月时间。后来换了一位敢把整套流程抛弃重做的负责人,一个季度全部交付。真正省时间的不是升级的模型版本,是把流程拆掉重做的那个人。
Ali 认为,应用层的大机会终将出现,且会集中到那些敢于重写组织逻辑的玩家手里。这件事的推进速度,由人来决定,而不依赖 GPT-6、Opus-5。
倒三角
在技术栈中,价值天然会从底层硬件向上层的软件和应用攀爬。
云计算产业完成从硬件主导到软件主导,整整走了十五年。AI 堆栈要完成同样的价值翻转,要么靠应用层继续爆发,要么等芯片层的毛利率从 73% 的高位,一路向云时代硬件那样的 6% 靠拢。目前两边都在发生,但速度都不够快。按照过去两年的变迁节奏推算,应用层想在利润份额上追平当年云计算平台的水平,至少需要十年起步。
因此,当下押注芯片层,赌的是未来两年就能落袋的现金流;押注应用层,看准的则是未来五到十年价值上移的大趋势。

在促使芯片层毛利率崩溃的技术革命到来之前,离芯片越近,离利润就越近。
