Marvell如何打造AI芯片的“数据高速公路”?从定制SRAM到光SerDes,全栈技术引爆数据中心革命!
在人工智能狂飙突进的时代,大模型、生成式AI、高带宽推理任务正以前所未有的速度重塑全球数据中心的底层架构。
曾经的通用CPU计算范式正在被GPU、TPU乃至各类定制XPU芯片全面取代,而支撑这些AI芯片高效运转的,是一整套看不见却至关重要的“数据高速公路”——高速互连、先进封装、定制内存、低功耗SerDes……在这场技术军备竞赛中,有一家公司低调却强势地站在了舞台中央:Marvell(美满电子)。
它不像英伟达那样高调炫技,但却是几乎所有主流云厂商背后不可或缺的“隐形冠军”。从定制SRAM到全球首发448G光电SerDes,Marvell正以“全栈自定义平台”战略,成为下一代AI基础设施的核心引擎。
今天,我们就深度拆解这家全球顶级半导体公司如何用硬核技术,打通AI芯片的每一寸“血管”!
云巨头疯狂砸钱,AI基础设施迎来黄金爆发期
根据Marvell引用的市场数据,自2023年起,美国四大云服务商——亚马逊、微软、谷歌和Meta在AI基础设施上的资本支出以高达46%的复合年增长率狂飙突进,预计到2025年将突破3270亿美元!
这不是普通的技术升级,而是一场彻底的架构革命。
过去,数据中心靠一堆通用CPU堆性能;如今,它们正全力转向以加速器为核心的异构计算架构。
GPU固然耀眼,但高昂的采购成本、持续的供应紧张和功耗瓶颈,正逼迫云巨头走向“自研ASIC”的道路。而Marvell,正是这场去GPU化浪潮中最关键的技术推手之一。不仅如此,OpenAI、xAI这类“模型优先”玩家,特斯拉、苹果这类“应用驱动”巨头,以及Humain、Stargate等主权AI新势力,也纷纷加入定制芯片大潮,推动AI基础设施走向多元化、分布式、协同优化的新生态。
打破GPU垄断!Marvell的“XPU + XPU Attach”架构横空出世
面对NVIDIA GPU价格高企、产能吃紧的现实困境,云厂商纷纷启动“去英伟达化”战略,转而设计自家定制芯片以优化每瓦性能(performance-per-watt)并控制总拥有成本(TCO)。
Marvell敏锐捕捉到这一趋势,提出“XPU + XPU Attach”双轮驱动架构。
所谓Custom XPU,指的是为客户量身打造的AI推理、信号处理或通用计算核心;而Custom XPU Attach,则是围绕XPU的全套支持系统,包括高速SerDes串行器、芯片到芯片(D2D)互连、Scale-up扩展网络、内存池控制器、安全引擎和管理单元等。
这套架构让Marvell不再只是IP供应商,而是真正的“系统级芯片合作伙伴”。
截至目前,Marvell已在四大云巨头中部署了12个芯片插槽(3个XPU + 9个Attach芯片),并在新兴超大规模客户中再添6个,总计18款AI加速芯片已量产——这组数字,正是其平台战略获得行业广泛认可的铁证!
全栈技术护城河:从系统架构到制造物流,五大支柱构筑技术壁垒
Marvell真正的杀手锏,不是某一项单点技术,而是贯穿“硅片到系统”的全栈整合能力。
它拥有五大核心技术支柱:
第一是系统架构设计,帮助客户定义数据流与并行计算模型,优化SoC整体效率;
第二是自研IP库,包括高性能SerDes、定制SRAM、内存控制器和片上互连;
第三是硅片服务,支持2纳米、14埃(Å)、16埃等最先进工艺节点的逻辑设计;
第四是先进封装,整合扇出型(Fan-out)、2.5D、CoWoS(台积电的Chip on Wafer on Substrate)以及共封装光学(CPO)等技术,大幅提升系统密度和能效;
第五是制造物流,打通从晶圆制造到系统级表面贴装(SMT)的全链条,确保供应链高效稳定。
这种端到端能力,让Marvell能在AI芯片设计早期就深度介入,实现真正的协同优化。
光电融合!Marvell首发448G SerDes,定义下一代互连标准
在2025年OFC(光纤通信大会)上,Marvell扔出一枚重磅炸弹——全球首款448G电气-光SerDes!这一突破性技术直接支撑CPO(共封装光学)、LPO(线性驱动可插拔光学)和OIO(光I/O集成)等下一代光互连架构。
传统电互连在高速率下功耗剧增、信号衰减严重,已逼近物理极限。而光互连凭借低延迟、高带宽、低功耗优势,正从“可选方案”变为“必选项”。Marvell的448G SerDes不仅速率翻倍,还大幅降低每比特功耗,使机柜间(rack-to-rack)、甚至Pod间(pod-to-pod)的AI集群通信真正实现“零瓶颈”。这意味着未来AI训练集群可无限横向扩展,而不再受限于电互连的物理距离与功耗墙。
定制SRAM与HBM:破解AI芯片的“内存墙”困局
如果说互连是AI芯片的“血管”,那内存就是它的“心脏”。
在先进工艺节点下,传统SRAM的面积和静态功耗问题日益严重,成为制约AI芯片能效的关键瓶颈。
Marvell祭出“定制SRAM”解决方案,实现三大飞跃:同等带宽下面积缩小50%、待机功耗降低66%、单位面积带宽密度提升17倍!这些指标堪称恐怖,特别适用于L2/L3缓存、神经缓存(neural cache)和推理权重缓冲区。
目前,这套定制SRAM已集成于多款头部AI加速器中。与此同时,Marvell还在同步推进定制HBM(高带宽内存)系统,将其与CPO光子封装平台深度耦合。这种异构集成方案,不仅打通了计算核心与内存之间的“最后一厘米”,还构建起面向NoC(片上网络)和Scale-up Fabric的高性能内存底座,为数据中心提供低延迟、高吞吐、可横向扩展的计算基础设施。
从单点优化到全栈协同:Marvell的2025技术路线图揭示三大行业拐点
展望2025年及以后,Marvell清晰描绘了加速计算演进的三大关键方向:
第一,从单一GPU主导转向可定制的XPU系统架构;
第二,从电SerDes全面过渡到光电融合的集成互连;
第三,从标准SRAM升级为定制内存与高密度封装的一体化方案。
这三大趋势,本质上是从“局部优化”走向“系统级协同设计”的范式转移。在埃米(Ångström)工艺时代,单靠工艺微缩已无法满足AI算力爆炸性增长的需求,唯有像Marvell这样,同时掌握工艺、IP、封装、互连四大核心能力的公司,才能构建出兼具规模、效率与灵活性的新一代AI基础设施。
对Marvell而言,芯片早已不再是孤立的功能模块,而是未来数据中心的“建筑基石”——每一块砖,都经过精密计算与系统协同。
为何Marvell能成为AI基建的“幕后推手”?
Marvell成立于1995年,总部位于美国加州,是全球领先的半导体解决方案供应商,尤其在数据存储、网络通信和定制芯片领域拥有深厚积累。过去十年,Marvell通过一系列战略并购(如收购Aquantia、Inphi)迅速切入高速互连与光通信赛道,并深度绑定苹果、亚马逊、微软等顶级客户。
其技术团队汇聚了来自Broadcom、Intel、台积电的顶尖芯片架构师与封装专家,具备从系统定义到物理实现的全链条能力。
更重要的是,Marvell采取“客户共研”模式——不是简单卖IP,而是与云厂商联合定义芯片规格,确保从第一天起就精准命中需求。这种深度绑定,使其在AI芯片基础设施领域建立起难以复制的生态护城河。