2026年4月25日

Deep News

'Google 和 Amazon 争着给 Anthropic 送 $650 亿,但钱只是走个过场'

Google $400 亿、Amazon $250 亿投 Anthropic,Anthropic 承诺在 AWS 和 Google Cloud 上花超过 $1000 亿买算力。云厂商投出去的钱,几乎会原路返回。这不是风险投资,是预付费订阅——用股权换锁定客户。整个 AI 行业正在变成一场由算力供给方主导的封闭游戏。

AI投资 · 云计算 · Anthropic · Google · Amazon · 基础设施

摘要

过去两周,两家公司往 Anthropic 塞了 $650 亿。Google 先来:$100 亿现金(Anthropic 估值 $3800 亿),加最多 $300 亿的未来追加,条件是达到某些绩效里程碑。Amazon 跟上:$50 亿到账,再加最多 $200 亿,同样挂钩商业里程碑。

两家都不是在做慈善。Google Cloud 承诺给 Anthropic 5GW 算力(未来五年),之前已经和 Broadcom 一起谈好了 3.5GW TPU 产能(2027 年上线)。Amazon 那边,Anthropic 承诺未来十年在 AWS 上花超过 $1000 亿。

投出去 $650 亿,收回来 $1000 亿以上的云消费承诺。这不是风投,是预付费。


两笔交易拆开看

Google 这边:$100 亿现金以 $3800 亿估值入场。这个估值比 2 月的 $3500 亿只涨了一点——说明 Google 拿到了一个不贵的价格。剩下的 $300 亿分批给,挂钩"绩效里程碑"(没公开具体是什么,大概率是营收目标和模型性能指标)。

Google 和 Anthropic 的关系可以追溯到 2023 年:先是 $3 亿,然后 $20 亿,到这次之前总共约 $30 亿,持股约 14%。这次一笔就顶过去所有投资的十倍多。

重要的是基础设施绑定。Google Cloud 提供的不是普通云服务——是 TPU(Tensor Processing Unit),Google 自己设计的 AI 专用芯片,被认为是英伟达 GPU 之外最好的选择。Anthropic 对 TPU 的依赖程度已经很高了。5GW 的承诺意味着 Anthropic 的核心训练和推理负载会长期跑在 Google 的芯片上。

Amazon 这边:结构类似。$50 亿现金到账,最多 $200 亿后续。回报是 Anthropic 在 AWS 上的长期消费——目标超过 $1000 亿,对应约 5GW 算力。Anthropic CEO Dario Amodei 的原话是"Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand."

两家交易结构几乎一模一样:先给一笔大头现金,后续分批追加,挂钩商业条件。不是传统 VC 的"赌你会涨",而是"我先给你钱建基础设施,你用我的云还回来"。


钱走了一圈回来了

这是理解这笔交易的关键。画一下资金流向:


Google/Amazon → $65B现金 → Anthropic
Anthropic → $100B+云消费 → Google Cloud / AWS
Google Cloud / AWS → 算力+基础设施 → Anthropic 训练模型
Anthropic 模型变强 → 更多用户 → 需要更多算力 → 买更多云

Google 投 $400 亿给 Anthropic。Anthropic 用这笔钱的一部分付 Google Cloud 的 TPU 租赁费。钱从 Google 的左口袋进右口袋。区别是:左口袋出去的是"投资"(换回股权),右口袋进来的是"收入"(云服务营收)。投资和营收在会计上是两回事,但对 Google 来说,这笔交易的现金流闭环了。

Amazon 也是同一个游戏。投 $250 亿,收回 $1000 亿以上的 AWS 消费承诺。Amazon 的投资回报率看着比 Google 还好——投入少,承诺的回流多。但 Amazon 没有自己的 AI 芯片(用的是英伟达和自研 Trainium/Inferentia),在算力稀缺性上不如 Google 的 TPU 路线。

为什么云厂商愿意下这么大的注?因为 Anthropic 的年化收入已经超过 $300 亿。一个 $300 亿 ARR 的客户——而且是增长中的客户——值得任何手段去锁定。传统云服务的大客户(Netflix、Apple)一年的云支出也就 $10-20 亿量级。Anthropic 是一个数量级以上的存在。


囚徒困境:不投就意味着失去这个客户

云厂商之间的博弈是一个标准的囚徒困境。

如果所有云厂商都不投 Anthropic,Anthropic 自由选择最便宜的算力,云厂商打价格战,利润率下降。但只要有一家投了——比如 Google 先投了——Anthropic 就有了偏好:用 Google Cloud 的 TPU 多一些。Amazon 的 AWS 收入就受威胁。Amazon 必须跟注。

反过来也一样。Amazon 先投了 $250 亿,Google 不跟注的话,Anthropic 的训练负载会更多跑在 AWS 上,Google Cloud 的 TPU 产能就空转。所以 Google 也必须跟。

结果是两家都投了,Anthropic 两头拿钱,云厂商两家都锁住了客户的至少一部分消费。对 Anthropic 来说这是最优解——不被任何一家绑定,两边都拿钱,算力来源多元化。对云厂商来说这是次优解——都投了,但竞争对手也投了,锁定的效果互相抵消了一部分。

但谁都不敢不投。不投就意味着把这个正在以每年数倍增长的客户让给竞争对手。

这个困境有一个反直觉的结果:投得越多,越不得不再投。 第一轮投资建立了关系,Anthropic 在你的云上部署了基础设施。迁移成本产生了。但对手也投了,也在建基础设施。Anthropic 两边都有负载,两边都不想丢。下一轮融资时,你不跟,对手跟了,Anthropic 就把增量负载移到对手那边。你的份额从 50% 降到 30%,但固定成本(建好的数据中心)没变。边际利润率恶化。所以你只能继续跟。

这是一个自我强化的循环:投资 → 绑定 → 对手也投 → 不得不继续投。没有外部力量打断的话,它会一直加速——直到物理极限。

Microsoft 和 OpenAI 的关系是同一逻辑的另一个实例。Microsoft 投了 $130 亿给 OpenAI,OpenAI 的算力几乎全部跑在 Azure 上。区别是 Microsoft 先下手了,而且投得更早,现在 OpenAI 已经在寻求算力多元化(和 Cerebras 扩大合作、自己建基础设施),部分原因就是不想被 Azure 单一绑定。这恰好说明了这个循环的脆弱性——AI 实验室一旦意识到被单一云厂商绑架,就会试图逃离。但逃离需要自己建基础设施,成本和时间都不站在它们这边。

四家云厂商,两家 AI 实验室(Anthropic、OpenAI),形成了两个对称的锁定关系:Google+Amazon↔Anthropic,Microsoft↔OpenAI。DeepSeek 是唯一的例外——它不依赖任何云厂商,靠开源和低成本走了一条独立的路。但 DeepSeek 的路径依赖中国的芯片生态(华为 Ascend),在全球市场上受地缘政治约束。


计算力是新的瓶颈——但供给有物理极限

这些交易的核心不是模型,不是算法,是算力

几个数字:四大 hyperscaler(Google、Amazon、Microsoft、Meta)2026 年 AI 基础设施 capex 合计约 $6500 亿,同比增长 63%。全球数据中心 capex 预计到 2030 年达到 $5.2 万亿(麦肯锡估计)。全球 IT 支出 2026 年将达 $6.31 万亿(Gartner)。

但算力的扩张有物理天花板。5GW 的电力消耗是什么概念?相当于一个中型城市的全部用电量。Google 给 Anthropic 承诺 5GW,Amazon 也给 5GW,Anthropic 一个公司就要消耗 10GW——这还没算 Microsoft/OpenAI 的部分。

电力供应、冷却系统、数据中心选址、光纤连接——这些都需要数年时间建设。不是说"我有预算就能买更多 GPU"。瓶颈在芯片(英伟达和 TPU 的产能有限),在电力(很多地区的数据中心已经被电网限电),在土地(好的数据中心选址越来越少)。

Anthropic 的用户已经在抱怨 Claude 使用量限制。OpenAI 公开批评 Anthropic "没搞到足够的算力"。CEO Amodei 的回应是承认"infrastructure strain"是不可避免的。这些投资就是在解决这个问题——用现金锁定未来几年的算力供给。

但物理瓶颈也解释了为什么这笔交易对 Google 特别有价值。Google 有自己的 TPU 芯片——不依赖英伟达的产能。当英伟达 GPU 缺货时,Google 可以用 TPU 填上。这是 Google 相对于 Amazon 和 Microsoft 的结构性优势:自研芯片意味着算力供给更多受自己控制。


铁路时代重演

这种"控制基础设施来锁定客户"的模式不是第一次出现。

铁路时代(1860s-1890s):铁路公司控制了运输通道,同时投资沿线的工厂和矿山。工厂的产出必须通过铁路运输,铁路公司的投资实际上是把客户绑定在自己的轨道上。结果:铁路公司成了美国第一批被反垄断法拆分的对象。标准石油的崛起不是因为它有最好的石油——是因为它和铁路公司谈了独家运费折扣,把竞争对手的运输成本抬到了无法竞争的水平。

电信时代(1970s-1980s):AT&T 控制了电话线路和电话服务。线路是基础设施,服务是应用。你在我的线上跑你的信号,我既能收你的线路租金,也能自己提供同样的服务和你竞争。1982 年,AT&T 被强制拆分——基础设施和应用层被分开。

云 AI 时代(2020s):Google/Amazon/Microsoft 控制了算力基础设施(GPU/TPU 集群、数据中心、网络),同时通过投资绑定最大的 AI 应用层客户(Anthropic、OpenAI)。它们既是供应商又是竞争对手——Google 的 Gemini 和 Anthropic 的 Claude 在同一个市场竞争,但 Claude 跑在 Google 的芯片上。

三次的模式完全一样:控制瓶颈资源 → 投资下游客户 → 锁定需求 → 用锁定挤压竞争对手。前两次都导致了反垄断干预。第三次会不会?

有一个关键区别:铁路和电信的瓶颈是物理的(铁轨、电话线),替代成本极高。算力的瓶颈也在变物理——但方式不同。芯片的设计知识是公开的(GPU/TPU 架构论文都可以查到),瓶颈在制造产能(台积电的先进制程产能)和能源供给(电力、冷却)。这意味着反垄断拆分不太可能像拆 AT&T 那样"把基础设施和应用分开"——因为你没法拆台积电,也没法拆电网。

但这不意味着没有反垄断风险。如果 Google 同时持有 Anthropic 14%+ 的股权、提供 Anthropic 核心算力、又和 Anthropic 在同一个模型市场竞争,这个利益冲突在欧美监管框架下会越来越难解释。尤其当 Anthropic IPO 后成为公众公司,Google 的双重角色(投资人+供应商+竞争对手)会更受审视。


这对谁不好

对 AI 创业公司:当 $650 亿流向 Anthropic,流给其他人的就少了。不只是投资少了——更重要的是算力少了。云厂商的数据中心产能是有限的,Anthropic 预定了 10GW,留给其他客户的就少 10GW。一个做 Agent 的创业团队发现 GPU 租赁价格又涨了,部分原因就是 Anthropic 把产能吃掉了。

这是 AI 行业的"大鱼吃小鱼"效应在基础设施层面的体现。前端是模型能力的竞争(谁最聪明),后端是算力的竞争(谁能跑得最多)。后端的竞争正在通过资本投入前端化——云厂商用投资锁定算力需求最大的客户,剩余产能才分给其他人。

对开发者:当模型训练越来越集中在少数几个实验室(Anthropic、OpenAI、DeepSeek),开发者的选择实际上在收窄。你用 Claude,你的数据帮 Anthropic 改进模型,Anthropic 赚更多钱,买更多 Google/Amazon 的算力,变更强。正反馈循环。换到 OpenAI 也一样——只是换成了 Microsoft 的算力。这个结构让"多模型"策略的实际意义在下降:不管你用谁,你的钱最终都流向了同一个云基础设施提供商。

对竞争:Google 既是 Anthropic 的投资人,也是 Gemini 的开发者。Gemini 和 Claude 在模型市场上直接竞争。Google 投 $400 亿给竞争对手,同时自己也在做同样的事。这在传统反垄断框架下是一个灰色地带——你是通过投资控制了竞争对手,还是在扶持一个独立的实体?如果 Anthropic 的 IPO 顺利进行(最早今年 10 月),这个问题的答案会更清楚。但即使在 IPO 之后,Google 的持股和算力绑定关系不会消失。


接下来会发生什么

短期(3-6 个月):Anthropic 利用新资金加速算力扩张。Claude 的使用量限制逐步取消,企业客户加速签约。Google 的 TPU 产能成为 Anthropic 相对于 OpenAI 的差异化优势——OpenAI 依赖英伟达 GPU,Anthropic 有 TPU 和 GPU 两条路。如果英伟达 GPU 再次缺货(历史上每 6-12 个月来一次),Anthropic 的供应韧性会更强。

中期(6-12 个月):Anthropic IPO。Bloomberg 报道投资者愿意以 $8000 亿估值入场——是当前 $3800 亿的两倍多。IPO 的规模和定价将成为 AI 实验室估值的风向标。如果定价高,AI 投资泡沫继续膨胀。如果定价低或破发,整个 hyperscaler 的投资逻辑都需要重新审视——$650 亿投进去了,如果被投公司的公开市场估值低于私募轮,投资回报就成了负数。

长期(1-2 年):三种可能的路径。路径一:算力瓶颈缓解(芯片产能跟上、核能/可再生能源扩容),AI 实验室的算力成本下降,对云厂商的依赖减弱,锁定关系松动。路径二:算力瓶颈加剧(模型参数继续指数增长、Agent 工作流消耗更多推理算力),云厂商的议价权更强,AI 实验室利润被挤压。路径三:监管介入,限制云厂商对 AI 实验室的投资规模或要求算力中立,打破锁定关系。

三条路径的概率?取决于两个变量:模型 Scaling Law 是否继续有效,以及电力供应能否跟上。如果 Scaling Law 在某个点放缓(模型不再需要更多参数来变强),路径一的概率上升。如果 Scaling Law 继续有效且 Agent 部署爆发(推理需求远超训练需求),路径二的概率上升。监管始终是黑天鹅。


数据来源