一场由光学互联、先进封装和异构计算共同驱动的AI基础设施革命,这场风暴的核心:Ayar Labs(阿亚实验室)与Alchip(世芯电子)联手打造的下一代AI加速器架构。
首先,让我们聚焦这场技术合作的硬核细节。阿亚实验室和世芯电子这次不是简单地“合作”,而是直接把光引擎塞进了芯片封装里!
他们推出的下一代XPU(泛指AI加速芯片)平台,堪称“堆料怪兽”:
单个封装内集成两颗全光罩尺寸(full-reticle)的AI加速芯片,搭配8个HBM高带宽内存堆栈,再配上8个阿亚实验室自研的TeraPHY™光学引擎。
这意味着什么?意味着数据不再需要通过传统的铜线在芯片之间“爬行”,而是以光速在封装内部和外部高速传输——带宽更高、延迟更低、功耗更优。
更关键的是,这套系统还集成了被动器件(IPD),专门用来提升高速信号的完整性,避免数据在传输过程中“失真”。同时,为了实现横向扩展(scale-up),他们还嵌入了基于UCIe(通用芯粒互连)协议的转换芯粒(chiplet)。
UCIe是当前Chiplet(芯粒)生态的黄金标准,能让不同厂商、不同工艺节点的芯片像乐高一样拼装在一起。
这样一来,未来的AI加速器不再是单一芯片的“独角戏”,而是由多个专用芯粒组成的“交响乐团”——计算、内存、光互联各司其职,协同作战。
这种“光电共封装”(Co-Packaged Optics, CPO)架构,正是解决当前AI算力瓶颈的关键钥匙。
要知道,今天的AI大模型训练动辄需要上万张GPU,而GPU之间的通信带宽和延迟,已经成为制约性能提升的最大瓶颈。
传统电互联在距离稍长、速率稍高时就会遭遇信号衰减和功耗飙升的问题。而CPO尤其是像TeraPHY这样的硅光技术,能在毫米级距离内实现每秒数TB的传输速率,同时功耗降低50%以上。这不仅是技术升级,更是范式转移。
阿亚实验室和世芯电子的合作之所以重要,是因为它代表了AI硬件演进的下一阶段:从“堆GPU”到“系统级创新”。
过去几年,英伟达靠GPU+NVLink+InfiniBand统治了AI训练市场。但随着模型规模逼近物理极限,行业必须寻找新的突破口。而光电共封装+芯粒架构,正是最有希望的答案之一。它不仅能提升单机性能,还能大幅降低数据中心整体功耗——要知道,花旗预测到2030年,全球AI计算将新增55吉瓦的电力需求,仅在美国就可能催生1.4万亿美元的额外计算支出。省电,就是省钱,更是可持续发展的关键。
值得一提的是,世芯电子作为台积电生态的核心合作伙伴,在7nm、5nm乃至3nm先进制程的Chiplet设计上积累了深厚经验。而阿亚实验室则是硅光领域的明星初创公司,其TeraPHY光学I/O芯片已获得英特尔、英伟达、思科等巨头投资。两家联手,等于把最顶尖的封装能力和最前沿的光互联技术拧成一股绳,直指AI芯片的“通信墙”问题。
总结来看,我们正站在一个历史性拐点:AI不再只是算法和模型的游戏,而是演变为一场涵盖芯片、封装、光学、电力、金融的系统性工程竞赛。万亿资本涌入,技术突破频出,但风险也在悄然累积。投资者需要在狂热中保持清醒,既要看到AI长期增长的确定性,也要警惕短期债务泡沫的脆弱性。
未来几年,真正的赢家或许不是那些喊口号最响的公司,而是能在技术落地、供应链管理和资本效率之间找到平衡点的实干者。而对我们普通人来说,这场AI基建革命将深刻改变数字世界的底层逻辑——更快的响应、更智能的服务、更无缝的体验,背后都是这些“看不见的光”在默默驱动。
作者背景:本文作者长期追踪全球半导体与AI基础设施发展趋势,曾任职于国际顶级投行科技研究部,深度参与多轮AI芯片与数据中心产业链分析,对先进封装、光互联、Chiplet生态及资本开支周期有系统性研究。