谷歌又玩文字游戏?“铁木”根本不是全新芯片
别被名字骗了!你以为谷歌隆重推出的第七代TPU“铁木”(Ironwood)是革命性新品?错!这根本就是TPU V6p的“整容版”——旧酒装新瓶,老黄历改封面。
谷歌改名部再次上线,把去年的架构塞进新机壳,贴上“铁木”标签就敢喊“下一代AI算力”。结果投资人集体懵圈,股价瞬间飙涨15%,仿佛真看到了技术奇点。
但只有读过这篇拆解的人才知道:你兴奋买的,其实是“回锅肉”。不过别急着骂,虽然芯片没换,但整套光互联架构却彻底重构,这才是真正的杀招——谷歌把重心从“芯”移到了“路”,用光交换网络重构AI集群的通信逻辑。
换句话说,芯还是那颗芯,但连接方式已经跨入另一个维度。这才是散户和机构疯狂抢筹的真正逻辑:不是芯片多强,而是整个AI数据中心的通信范式被颠覆了。
9216颗芯怎么排兵布阵?64颗一魔方,六面出光纤
来,数学好的同学请举手!谷歌“铁木”一个标准机柜,塞进16个托盘,每个托盘又插满64颗TPU芯片——没错,16×64=1024颗?不对!再看清楚:每个托盘内部其实是4×4×4的三维立方体结构,64颗芯片围成一个“金刚葫芦娃魔方”,六面都能伸出光纤。
每颗芯片连出1.5根光路(工程上按整数计,实际为96根/托盘),对面另一个托盘的兄弟共享一台光交换机。于是96除以2等于48——对,每台交换机服务48对芯片,谷歌工程师的小学奥数是真的扎实。
整柜就是16托盘×64芯=1024颗TPU,但实际部署中,谷歌采用64柜×64芯=4096芯的大集群模式,这才是训练千亿参数大模型的最小作战单位。而这样的集群,光互联复杂度已经逼近物理极限——你不是在搭服务器,你是在织一张覆盖整个机房的光神经网。
CPU彻底沦为配角?1比4配比,百万CPU当保镖
在“铁木”体系里,CPU的地位惨不忍睹——它不再是大脑,而是保镖。每4颗TPU配1颗CPU,比例1:4。
这意味着,如果谷歌要部署400万颗TPU,就得同步采购100万颗CPU。这些CPU不干计算,只负责任务调度、数据预处理和系统监控,像大佬出门带的黑衣保镖,默默站在角落,但不可或缺。
主机托盘就塞在TPU托盘旁边,散热风扇吼得像波音747起飞,数据中心值班小哥调侃:“晚上不用听歌,听机柜就行——低频轰鸣是TPU在跑梯度,高频啸叫是CPU在喘气。”
这种架构彻底宣告:通用计算已死,专用AI加速才是未来。
英特尔和AMD的通用CPU,在AI训练场景里,正在变成昂贵的“看门狗”。
3D环形光网颠覆通信架构,延迟低到物理老师流泪
最炸裂的不是芯片数量,而是互联方式。
谷歌在“铁木”里搞了个“3D环形光网络”:64颗TPU排成魔方,相邻芯片用铜线直连,面与面之间用光路跳转,整个魔方外部再包裹48台MEMS光交换机。
光信号嗖嗖地绕圈,延迟低到什么程度?
端到端通信延迟压到亚微秒级——比传统以太网快100倍以上。物理老师教了你30年“光速是极限”,结果谷歌告诉你:在AI集群里,光速都嫌慢,得用拓扑优化+光路直连来“作弊”。
更狠的是,这套系统支持动态重构——训练中途,光路可以实时切换,让不同任务走最优路径。这已经不是通信网络了,这是AI的“反射弧”,比人类神经传导还快。
4096芯大集群曝光,13824根光纤插满魔镜交换机
算力规模一拉到底:64个机柜×64颗TPU=4096颗芯,组成最小训练集群。
每柜96根光纤,64柜就是6144根,但别急——这还只是单向。双向通信得翻倍,实际要12288根。谷歌用136口MEMS光交换机(实际可用128口,8口留作自检)来承接,比例1:1.5,光模块厂商直接笑疯。
而明年要上300口新魔镜,288口可用,12口自检,一台就能覆盖144根光纤。144柜×96根=13824根光纤,刚好被48台新魔镜插满。
注意:这里每根光纤都配1.6T光模块,不是100G,不是400G,是1.6T!需求量直接暴涨10倍,供应链调研报告首页就两个大字:“缺货”。
深圳光模块厂老板连夜飞回工厂堵门:“谁敢请假?订单多到能焊到2030年!”
MEMS魔镜黑科技:电压一抖,光路拐弯如夜店激光
MEMS光交换机到底怎么工作?
简单说,就是136片微型镜子,每片对应一根光纤。施加电压,镜子角度微调2度,光束就拐弯了——像夜店激光秀,但精度高到纳米级。
谷歌用的是2D MEMS阵列,叠两层:一层走850纳米绿光传数据,一层走红光做监控和校准。图像处理系统实时纠偏,插损低至0.1分贝,工程师实测后感叹:“比我家装的WiFi都稳。”
这种技术Lumentum玩得最溜,已经给谷歌供货三代。但Coherent不服,搞出数字液晶光开关——不用动镜子,靠液晶分子旋转调光路。优点是成本低、功耗低;缺点?切换速度慢到要喝两杯咖啡。好在AI训练集群一周才换一次拓扑,慢点也够用,工程师笑称:“这叫佛系光路,适合躺平时代。”
15万台300口交换机订单落地,150亿美金砸向光器件双雄
重头戏来了:谷歌明年要部署15万台300口光交换机。
其中12万台自研,由代工厂Celestica日夜赶工,产线灯火通明到天亮;
剩下3万台外包,Lumentum和Coherent平分,各拿1.5万台。
按单价5万到6万美元算,就是150亿到180亿美元营收直接砸脸。
Lumentum CFO发推特:“感谢AI赏饭吃”,当天股价跳空高开20%,K线拉出一根20CM长阳。
散户在评论区疯狂刷“爸爸带我飞”,而分析师连夜重写模型——过去光器件是配角,现在成了AI基建的“石油管道”。谁控制光路,谁就控制算力命脉。
光电共封装彩蛋曝光!2027年TPU托盘将内置交换机
你以为这就完了?谷歌还有隐藏大招!供应链内部爆料:铁木机柜侧板留有神秘插座,正在秘密测试“光电共封装”(O/E Co-Packaging)——2027年,光交换机将直接塞进TPU托盘内部,光纤长度缩短80%,功耗直降30%。
这意味着,现在的1.6T光模块可能只是过渡,未来连模块都不需要,光引擎直接集成在ASIC旁边。
消息一出,博通、Marvell、Alchip、GUC四家ASIC设计厂连夜开会,重新画板子。谁先搞定共封装方案,谁就是下一个千亿市值俱乐部成员。华尔街分析师把Excel公式改到崩溃:“这已经不是芯片战争,这是封装革命。”
美股抄作业清单:三梯队布局,SOXX也能喝口汤
普通散户怎么上车?别慌,路线图给你画好了。
第一梯队:Lumentum和Coherent,光器件双雄,吃下最肥订单;
第二梯队:Celestica,代工王者,产能就是印钞机;
第三梯队:1.6T光模块中国供应链——旭创、新易盛、天孚通信,虽然不直接供货谷歌,但通过二级渠道或代工厂间接绑定。
如果嫌选股麻烦,直接冲SOXX(iShares Semiconductor ETF),一键打包全球半导体龙头,躺平也能分一杯羹。但警告:这行波动30%是家常便饭,心脏不好别碰。记住,你不是在买股票,你是在赌未来十年AI基建的命脉走向。
90天上车倒计时!Q1资本支出指引将引爆订单潮
时间窗口正在关闭!谷歌2026年Q1财报将公布史上最大AI资本支出指引,订单潮一旦启动,供应链立刻爆单。现在投行电话会议已挤爆线,分析师把目标价调到火星轨道。但散户请注意:等到明年夏季新品发布会,所有利好兑现,只剩高位站岗。
现在是最后90天——你面对的不是风险,而是时代给的最后一次低成本船票。错过思科,错过苹果,错过特斯拉,别再错过AI算力基建。这一波,不是概念,是实打实的硬件订单、现金流、营收增长。
每一代技术革命都是财富重分配,AI基建大戏才刚开场
回看历史:90年代,思科路由器让一批人暴富;00年代,苹果智能机催生新贵;10年代,特斯拉电车改写汽车格局。现在,轮到AI算力基建——谷歌铁木只是开胃小菜。后面还有微软Athena超算、亚马逊Trainium2芯片、Meta MTIA加速器,大戏连台,至少唱十年。你手里的美股账户,不是游戏账号,而是通往下一波财富浪潮的船票。