内存三国杀!SK海力士、美光、三星为英伟达下一代AI芯片拼了!
AI芯片风光虽好,真正决定它能不能跑得快、省电又稳定的,其实是那些藏在芯片组里的“小透明”:LPDDR5X内存。
最近,围绕英伟达即将在2025年上半年发布的下一代AI加速器“鲁宾”(Rubin),一场由三星电子、SK海力士和美光三大内存巨头上演的“三国杀”正在激烈上演!
先划重点:这次的主角不是HBM,而是叫“SOCAMM 2”的低功耗DDR模块,专门搭配鲁宾芯片使用。而这场战役的核心,就是谁能在LPDDR5X的量产上更快、更省、更稳——尤其是谁能率先把最先进的“1c纳米制程”用在LPDDR5X上,谁就可能拿下未来AI终端市场的关键入口!
事情得从几个月前说起。原本英伟达规划了一个叫“SOCAMM 1”的项目,当时美光凭借自家基于1b(1-beta)制程的LPDDR5X技术,几乎独揽了全部订单,风头一时无两。但没想到,SOCAMM 1在测试阶段出了技术问题,英伟达果断叫停,转而全力推进升级版——SOCAMM 2。这一转,直接把原本“美光一家独大”的格局,打成了“三足鼎立”!
根据韩国券商Meritz Securities最新披露的数据,2025年SOCAMM 2的LPDDR5X订单分配已经基本敲定:SK海力士拿下110亿Gb(千兆比特),三星电子100亿Gb,美光70亿Gb。要知道,今年美光可是拿了接近垄断的份额,而明年却变成了三家分食,而且韩国双雄——三星和SK海力士合计拿走210亿Gb,远超美光。Meritz直接点评:“订单结构正在向本土(韩国)供应商倾斜。”
但别急着唱衰美光!业内人士提醒我们:SOCAMM 1虽然被英伟达暂停用于AI服务器,但未必彻底报废。它很可能转战AI PC、边缘计算设备甚至高端笔记本市场。所以,美光今年的订单加上明年的70亿Gb,整体份额依然可观。真正的胜负,得看“两年总账”!
现在,三大厂的策略已经非常清晰。最引人注目的是:SK海力士和美光正在火速将LPDDR5X从1b制程升级到更先进的1c(1-gamma)制程,而技术最领先的三星,却把全部1c产能优先给了HBM4——也就是用于AI训练的高带宽内存。
为什么这么做?Meritz一针见血:“SOCAMM的核心是成本竞争力,谁的1c工艺用得早、良率高、成本低,谁就能赢。”三星选择“高价值优先”,把1c产能先喂给利润更高的HBM4;而SK海力士和美光则选择“以快打慢”,用1c制程快速降低LPDDR5X成本,抢夺SOCAMM 2的量产先机。
SK海力士的动作尤其迅猛。今年上半年刚完成1c LPDDR5X开发,计划年底就启动大规模量产,明年上半年开始大批量出货!他们现在的策略是:把成熟的1b DRAM留给HBM4等高端产品,而把1c DRAM用于LPDDR5X这类通用型产品,扩大先进制程的应用场景。别忘了,SK海力士去年8月就推出了全球首款16Gb DDR5(基于1c),最近又搞定了1c版GDDR7,技术储备相当扎实。
更远的布局也在进行中。SK海力士正在同步开发基于1c工艺的LPDDR6,目标是明年上半年完成开发并直接量产。但问题来了:LPDDR6商业化时间太晚,赶不上2025年的SOCAMM 2,最早可能要等到2027年英伟达的“鲁宾Ultra”平台才能用上。所以短期内,他们的1c LPDDR6大概率先卖给智能手机厂商——尤其是中国客户。目前SK海力士是中国手机品牌LPDDR内存的主要供应商之一,而随着长江存储(CXMT)也宣布进军LPDDR6,未来手机内存市场的价格战恐怕一触即发!
再看美光,虽然SOCAMM 2订单少了,但技术没落下。他们为SOCAMM 2准备的正是基于1γ(即1c)制程的新一代LPDDR5X。官方数据显示,这款内存数据传输速率高达10.7 Gbps,比上一代省电最多20%,在AI语音翻译等任务中速度提升超50%!这意味着,即便订单量不如韩厂,美光的产品在能效和AI性能上仍有独特优势,特别适合对功耗敏感的终端设备。
总结一下这场内存三国杀的底层逻辑:
- - 英伟达的鲁宾芯片需要高性能、低功耗、低成本的LPDDR5X;
- - SOCAMM 2成为新战场,订单从美光独享变为三强分食;
- - 制程竞赛进入1c时代,谁先量产谁占先机;
- - 三星押注HBM4,SK海力士和美光主攻SOCAMM 2;
- - 长期看,LPDDR6才是下一代入口,但2027年前难成主力。
这场战役不仅关乎明年几百亿Gb的订单,更决定了未来AI终端——无论是AI PC、机器人、还是边缘服务器——的内存生态由谁主导。韩国双雄凭借本土供应链和快速量产能力抢占先机,美光则靠技术优化和能效优势守住阵地,而三星看似“缺席”,实则在更高维度布局HBM4,为AI训练市场蓄力。
可以预见,未来两年,这三家巨头将在1c制程的良率、成本、功耗上展开白热化竞争。而最终受益的,将是整个AI硬件生态——更低的内存成本、更高的能效比、更快的响应速度,都将加速AI从云端走向终端。
作者背景:本文作者长期追踪全球半导体产业链,尤其专注存储芯片、AI硬件架构及中美韩技术竞争格局,曾在多家国际科技媒体发表深度分析,对DRAM、NAND、HBM等技术演进有系统性研究,致力于用通俗语言解读硬核科技背后的商业逻辑与战略博弈。