最近一篇来自SemiAnalysis的重磅长文在AI圈里炸开了锅——它断言:谷歌第七代TPU(代号“Ironwood”/TPU v7)+ Anthropic订购100万颗TPU的超级订单,标志着英伟达CUDA生态的“护城河”开始崩塌。
文章声称,TPU不仅总拥有成本(TCO)显著优于英伟达Blackwell GPU,还首次走出谷歌内部,正式杀入“商户市场”。
乍一看,这像是AI基础设施格局洗牌的前夜:昔日王者英伟达被挑战,谷歌悄然崛起。但事实真的如此简单吗?本文深度拆解这篇爆文,结合公开财报、技术披露与第三方信源,为你还原这场“AI算力暗战”的真实图景。
Anthropic百万TPU订单:千真万确,但细节存疑
首先必须承认,SemiAnalysis文章的核心驱动力并非空穴来风。
2025年10月,谷歌与AI明星公司Anthropic联合官宣:Anthropic将在训练和部署Claude模型时,计划接入高达100万颗TPU,总价值“数十亿美元”,并将在2026年带来“超过1吉瓦”的算力容量。这直接坐实了“100万TPU”和“数十亿规模”这两个震撼数字。
更关键的是,谷歌母公司Alphabet在2025年第三季度财报中披露:其营收 backlog(未完成订单)从6月底的1082亿美元猛增至9月底的1577亿美元,单季暴涨495亿美元。
管理层特别强调:云业务 backlog 已达1550亿美元,环比增长46%、同比增长82%,主要由AI驱动。这与SemiAnalysis所称“大型多年期AI基建订单(可能包含Anthropic)正成为GCP增长引擎”的判断高度吻合。
Ironwood性能对飙Blackwell:差距正在快速缩小
谷歌确实在2025年公开发布了Ironwood——这是迄今最强大的TPU。单芯片配备192GB HBM3E高带宽内存,内存带宽高达7.37TB/s,FP8峰值算力达4614 TFLOPs,还能横向扩展至9216颗芯片组成超大规模Pod。
多家外部技术分析与媒体报道证实:在芯片和Pod层面,Ironwood的原始算力和带宽已大致追平甚至略微落后于英伟达GB200/GB300 Blackwell系统,历史性地大幅缩小了TPU与GPU之间的性能鸿沟。
尤其值得注意的是,谷歌官方文档明确指出:Gemini系列模型正是在TPU上训练并运行的;而近期关于Gemini 3和Ironwood的报道,更是反复强调二者“深度集成”,多个信源暗示Gemini 3的训练完全在TPU上完成。这意味着TPU已不仅是成本工具,而是支撑谷歌最前沿AI能力的核心引擎。
神秘“第四客户”是谁?SemiAnalysis的推理大胆但未证实
然而,文章从坚实事实滑向推测的关键转折点,出现在对博通(Broadcom)“第四位XPU客户”的归属判断上。博通在2025年Q3财报电话会上透露,已获得来自“第四位AI加速器客户”超100亿美元的AI机架订单,主要在2026财年交付。但博通并未点名该客户。
华尔街日报、Tom's Hardware等多家独立媒体均指向OpenAI,尽管未获官方确认。但SemiAnalysis却断言:这位神秘客户就是Anthropic,并进一步假设这100亿美元订单全部用于直接采购40万套Ironwood机架。这个推论虽具可能性——考虑到Anthropic刚宣布与Fluidstack在得州和纽约启动500亿美元的多年期AI基建计划——但它仍是推断,而非既定事实。把可能性当作确定性,是该文过度自信的典型表现。
谷歌云backlog暴涨495亿,全归功于Anthropic?想得太简单
类似问题也出现在对谷歌云订单的归因上。SemiAnalysis声称,Q3那495亿美元的backlog增长中,“大部分”来自Anthropic计划向GCP租用的60万颗TPU,价值约420亿美元。但Alphabet的财报仅确认了总增长额及AI驱动属性,并未按客户或产品拆分明细。
SemiAnalysis的数据本质是“反向工程”:它在数学上与公开总额一致,却非唯一解。将这种估算当作铁证,无疑高估了归因的确定性。这种“数据拼图式叙事”虽引人入胜,却容易误导读者误以为所有细节都已板上钉钉。
OpenAI真的停滞了吗?别被片面叙事带偏
文章另一处明显“选择性忽略”是OpenAI的进展。SemiAnalysis暗示OpenAI自GPT-4o后未完成全规模预训练,称Gemini 3的出现暴露了其“停滞”。但公开信息完全反驳此观点:OpenAI在2025年4月发布了明确更强大、更高效的GPT-4.1,8月又推出GPT-5,自称“最强模型”,在AIME 2025、SWE-bench、MMMU等多项基准测试中创下SOTA(当前最佳)。没有任何证据表明这些是“半成品”。
虽有Sam Altman内部备忘录泄露,谈及“经济逆风”与谷歌复苏,但那更多是内部管理沟通,而非算力枯竭的证据。更讽刺的是,博通的100亿订单若真是OpenAI所下,恰恰说明OpenAI正积极构建自己的非英伟达加速器栈,而非坐以待毙。SemiAnalysis从“OpenAI无敌”极端跳到“OpenAI掉队”,显然矫枉过正。
TCO优势真实存在,但44%差距是模型假设
在硬件层面,文章对TPU v7 vs. Blackwell的定性判断基本准确,但量化TCO(总拥有成本)的说法需谨慎对待。
Ironwood的192GB HBM3E、7.4TB/s带宽、4614 FP8 TFLOPs等参数与谷歌文档一致;而英伟达Blackwell Ultra(GB300 NVL72)单GPU配288GB HBM3E、8TB/s带宽,整机架含72颗GPU与36颗Grace CPU。
可见TPU v7在单芯片内存与带宽上接近GB200,仅在容量(192GB vs 288GB)上略逊于GB300,并非数量级差距。
文章声称谷歌内部Ironwood芯片TCO比GB200服务器低44%,这逻辑上合理——英伟达硬件毛利率超70%,意味着约4倍成本加价;而博通定制ASIC毛利率更低,且谷歌能内部消化系统集成与软件价值。
但“44%”这一精确数字无法公开验证,它依赖SemiAnalysis自家模型对BOM成本、功耗、利用率、折旧的假设。同理,其称外部客户(如Anthropic)租用TPU可比GB200/GB300节省30%-52% TCO,也属情景估算,而非硬数据。
MFU利用率争议:TPU真能碾压GPU吗?
文章另一有趣观点是:TPU因更贴近实际负载,能实现更高“模型浮点利用率”(MFU),而英伟达峰值FLOPs虚高。
这在理论上成立——业界共识是,大集群实际训练利用率常仅20%-40%,受功耗、内存、通信瓶颈限制。但若断言TPU“常规达到40% MFU而Blackwell仅30%”,进而推导出巨大TCO优势,则超出公开验证范围。
甚至英伟达赞助的SemiAnalysis自家“InferenceMAX”基准测试,也显示Blackwell在推理吞吐量上显著领先Hopper与AMD MI300。
可见,双方都能设计有利于己方的基准。对投资委员会而言,关键不是SemiAnalysis的假设错对,而是这类TCO差距的“高方差”——任何重仓押注40%-60% TCO优势的策略都应打折处理。
英伟达的“循环生态”遭质疑,但回应有理有据
文章指出英伟达通过投资或融资支持CoreWeave等GPU重资产“新云”公司,构建“资金内循环”以支撑GPU需求。
这确是真实存在的批评。
但英伟达财团队已回应:此类安排旨在获取有吸引力的风险调整回报,并非制造虚假需求。SemiAnalysis还称,TPU等替代方案让Anthropic、OpenAI能“威胁”英伟达,从而获得大幅折扣——例如OpenAI借此节省30% GPU开支。
这种博弈逻辑大概率存在(高毛利赋予英伟达定价空间,替代方案增强客户议价权),但具体折扣幅度高度不透明且因案而异。“OpenAI省30%”之说并无公开证据,应视为合理推测而非事实。
谷歌“表外融资”模式:重塑AI基建资本结构
文章在“生态系统与融资”部分最为扎实。谷歌通过Fluidstack,对TeraWulf、Cipher Mining等前矿企提供“表外租赁担保”——即谷歌为Fluidstack的租赁义务提供正式担保(如TeraWulf的13-18亿美元、Cipher的14+3.3亿美元),使其能获得项目融资债务,同时谷歌获得矿企股权认股权证。这些结构已多次官宣:10-25年托管合同、矿企获得数十亿签约收入、谷歌以担保换股权。
彭博社称此为“谷歌担保”新范式,其他超大规模客户正效仿。SemiAnalysis正确指出:此模式解决了加速器集群(4-5年寿命)与数据中心长租约(15+年)的期限错配,并让超大规模客户能绕过内部采购周期,更快扩展电力与空间。若此模式成行业标准,将深刻改变AI基建的资本结构与风险分担。
投资启示一:谷歌/Alphabet——从成本优势到外部变现
交叉验证SemiAnalysis观点与Alphabet财报、Anthropic公告及硬件报道,可确认:TPU正从谷歌内部成本优势,转变为外部收入与利润引擎。Anthropic的100万TPU、数十亿美元、2026年超1吉瓦容量,已具法律约束力;GCP的Q3 backlog激增证明此类AI订单已达Alphabet量级。Ironwood搭配Axion CPU,构成覆盖AI训练、推理与通用计算的全栈自研芯片组合。
若Ironwood TCO确显著优于Blackwell,谷歌将获得三重战略杠杆:
1)改善内部AI业务(搜索、Workspace、YouTube等)单位经济;
2)向外部AI实验室与企业提供差异化GCP服务(更便宜或同价更优);
3)将英伟达的部分超额利润转化为自身价格优势或利润。
更值得关注的是,路透社报道称Meta正洽谈2027年起数十亿美元采购TPU,并可能2026年就通过GCP租用——这意味着谷歌甚至可向其他超大规模客户出售TPU,模糊云厂商与芯片商边界。
对投资组合而言,这强化了“Alphabet长期盈利被低估”的逻辑:其AI基建投入部分计入资本支出、部分为表外义务,但绑定的AI收入池(搜索、广告、云、Workspace)高利润且多元化。若TPU大幅降低AI单次查询成本,则搜索中的AI叠加将从利润拖累变为可扩展增长点,支撑远超当前模型预期的终局盈利。
投资启示二:英伟达——护城河受冲击,但崩溃言之过早
SemiAnalysis叙事揭示了英伟达在前沿计算领域首个规模化挑战,但时间维度至关重要。英伟达刚公布单季570亿美元营收(数据中心510亿),毛利率73%-75%,并指引Q4达650亿,目标2027财年维持70%+毛利率。
如此高盈利意味着:即使TPU、Trainium(Trainium为亚马逊自研AI芯片)、博通XPU逐步侵蚀其定价权,英伟达仍有巨大缓冲空间。当前供给仍紧,超大规模客户与国家级项目争抢产能,且Blackwell/Rubin路线图、网络与软件生态构成高切换成本。
未来12-24个月,替代加速器更可能压制英伟达上行空间、推动行业走向竞争均衡,而非引发崩盘。
关键投资问题是:当前估值是否已透支未来十年70%+毛利率与50%+增长?若SemiAnalysis的TCO差异方向正确,英伟达长期毛利率确有下行压力。理性均衡下,多家大型供应商(英伟达、谷歌/博通、AWS/Trainium、Meta ASIC、OpenAI XPU)将驱动价格竞争,尤其对商品化工作负载及无深度生态绑定的客户。风险不在技术落后(Blackwell Ultra及后续Rubin架构仍可能多项领先),而在被迫分享价值池。极端情况下,英伟达毛利率或从70%-75%向高端半导体常态的40%-50%收敛——仍极赚钱,但估值倍数应下调。
SemiAnalysis正确指出:英伟达以股权融资支持新云客户与初创公司以维系需求与定价,但随着TPU替代方案规模化,这些英伟达系新云的议价能力或削弱,尤其当客户视GPU与TPU容量为部分可替代时。
投资启示三:博通——军火商崛起,但集中度风险高
博通作为谷歌TPU的主要芯片合作伙伴,同时自有XPU项目已服务至少4家大客户(其一已下100亿机架订单),正成为“定制加速器军火商”。无论该订单归属OpenAI、Anthropic或他人,趋势明确:博通在超大规模客户与基础模型实验室中斩获多重设计胜利。但其毛利率与净利率结构性低于英伟达,且AI收入集中于少数客户,议价能力受限。投资组合中搭配英伟达与博通,可对冲“定制ASIC vs 通用GPU”风险,但无法消除周期性与客户集中风险。
投资启示四:AMD——夹缝求生,市场蛋糕正被瓜分
对AMD而言,整体影响偏负面。AMD正努力以第二供应商身份从英伟达手中抢份额,但每一份TPU、Trainium、MTIA(Meta自研芯片)或博通XPU的成功部署,都在蚕食通用GPU的总可寻址市场。若超大规模客户的非英伟达支出日益倾向自研或谷歌ASIC,AMD的上行空间将受限。
SemiAnalysis早期研究与独立基准测试均显示:AMD MI300系列在实际性能与生态成熟度上落后于英伟达,强化了其“第三选择”地位。唯一利好是:部分客户或需非超大规模厂商控制的通用加速器供应商,AMD仍是首选。但TPU与Trainium的TCO故事越 compelling,这部分残余需求就越可能成为结构性弱势市场。
投资启示五:超大规模客户分化——自研芯片成胜负手
文章逻辑凸显超大规模客户的“战略分野”:AWS与谷歌已全力押注自研AI芯片(Trainium/Inferentia、TPU/Axion);Meta似正加速远离英伟达,路透社称其洽谈2027年起数十亿美元采购谷歌TPU,并可能2026年就租用;微软则仍重度依赖英伟达与AMD,其内部ASIC(Maia/Cobalt)在公共影响力与生态采用上明显落后。
未来3-5年,拥有成功、广泛应用的自研加速器与吸引力融资结构的超大规模客户(谷歌、AWS),应享有更优AI单位经济与定价灵活性。
若谷歌能为Anthropic、Meta等提供相较纯Blackwell集群20%-40%的TCO优势,且不压缩自身云利润率,则其云竞争力将显著提升。微软则或需接受更低Azure AI利润率(通过大幅折扣英伟达产能)或加速自研路线图——两者皆有风险。
投资启示六:矿企转型新云——高杠杆高贝塔,但尾部风险大
TeraWulf(WULF)、Cipher Mining(CIFR)、Iris Energy(IREN)等矿企构成此叙事中高杠杆、高贝塔一环。
SemiAnalysis正确指出:这些矿企掌控高密度电力站点与购电协议(PPA),可转型AI数据中心。与Fluidstack及谷歌担保的已披露交易,已使其签约收入与股权估值跃升。若“超大规模客户担保”模式规模化,它们将从投机矿企变为类“受监管”基础设施商,拥有长期、通胀挂钩现金流。但其现金流高度集中(一两个交易对手),债务将随数百兆瓦新容量融资而激增,股权暴露于超大规模客户AI资本支出或谷歌TPU战略逆转风险。
从组合构建看,若TPU采用超预期,这些标的具巨大期权价值;但若TPU TCO优势小于预期或更 niche(小众),则尾部风险显著。
结论:方向正确,但别被即时叙事冲昏头
综上,SemiAnalysis文章的核心结论——以TPU为首的替代加速器正结构性压缩英伟达护城河——方向正确,但“即时崩塌”论言过其实。
对投资委员会,最稳健的启示是:
1)TPU在技术和经济性上已具规模化竞争力,获Gemini 3与Anthropic订单验证;
2)谷歌已悄然构建第二个类英伟达的经济特许权,正通过Anthropic、潜在Meta等外部变现;
3)英伟达超常盈利难永续,随多ASIC生态成熟将面临竞争;
4)新融资结构(超大规模客户担保新云租赁)正重塑AI基建资本结构与风险轮廓。
组合上,这支持:相对超配Alphabet及精选AI基建标的(博通,及小仓位WULF/CIFR类高风险高回报标的),适度低配或下调英伟达估值倍数,并对AMD上行空间保持谨慎。同时,在超大规模客户中优选手握可信自研加速器与实证ASIC经济性的玩家,规避过度依赖英伟达标价者。
SemiAnalysis文章虽有偏颇,但最大价值在于揭示谷歌TPU布局的规模与严肃性,及TPU-新云-超大规模客户融资三角的涌现,而非其精确TCO百分比或客户归属细节——后者仍是估算,非定论。