摩根大通重磅:HBM黄金十年 抓住AI内存风口

摩根大通内存峰会报告看好DRAM长期增长,HBM定制化革命降低AI功耗,边缘AI市场2030年达50亿美金!

摩根大通的“内存执行峰会”报告DRAM长期增长超乐观,HBM从被动零件变身主动大脑,边缘AI市场直奔50亿美金大关!

事件回顾:内存执行峰会后,DRAM增长展望亮瞎眼

2025年9月20日的内存执行峰会,全球大佬云集,摩根大通分析师们直接抛出重磅报告:《内存执行峰会后DRAM长期增长乐观展望》!

他们说,随着AI基础设施爆炸式扩张,DRAM市场将迎来黄金十年,2025年总规模直奔2000亿美金,HBM贡献率飙升到20%以上!这份报告基于峰会现场的厂商爆料,从三星到美光,全是干货。

X平台上,分析师Jukan的帖子一夜破万赞,网友直呼:“这才是AI真金白银!”

峰会焦点直指HBM的定制化革命,预计到2030年,数据中心电力需求翻倍,内存成本占比从10%飙到30%,谁掌握HBM,谁就握住AI命脉!这不光是技术升级,更是商业大战,

从被动到主动:定制高带宽内存重塑内存角色

过去,内存就是个安静的“存储柜”,现在呢?在连接数百个芯片的XPU环境里,高带宽内存(HBM)要占AI基础设施总拥有成本(TCO)的更大份额,摩根大通预测,到2027年,这比例能翻倍!

厂商们直言,HBM正从被动零件进化成系统智能的活跃玩家。定制高带宽内存(cHBM)来了,它能整合各种功能、处理能力和逻辑芯片设计,比如低功耗双倍数据率内存(LPDDR)跟HBM并肩作战,甚至计算逻辑直接嵌入HBM堆栈里!

这定制化成了性能杀手锏,峰会现场爆料:多家客户项目已启动,三星和SK海力士正跟晶圆厂和供应链深度合作。

投资者担心GPU巨头抢逻辑设计权?纯属多余!内存公司现在玩全栈解决方案,涵盖HBM芯片、逻辑芯片、LPDDR、内存内处理(PIM)和存储,覆盖AI全层级。

Marvell的博客直呼:cHBM是未来,优化接口能让AI训练速度飙升30%!
据SemiAnalysis报告,2025年cHBM项目已超10个,供应链瓶颈正被协作攻克,这不光拉动DRAM增长,还重塑整个生态!

AI驱动的爆炸性功耗:高带宽内存降低AI基础设施总拥有成本的关键

AI训练计算需求每年暴增4倍,功耗跟着水涨船高,数据中心电力占全球用电从2025年的1.5%飙到2030年的3.0%,AI服务器更狠,到2030年占数据中心65%,比2023年增56倍!

峰会厂商们直呼头大,但HBM成了救星!比起HBM3/3E,他们更推节能价值,每提升10% HBM功耗效率,机架级功耗降2%,系统级收益巨大!

设计挑战?热管理和带宽瓶颈,但解决方案已出炉:集成PIM技术,让内存自己“思考”数据,减少传输损耗。

Yole集团预测,2025年内存市场2000亿刀,HBM贡献1290亿DRAM中的大头!
小G搜的TechInsights报告说,AI功耗危机逼厂商加速创新,HBM4预计2026年商用,功率效率翻番。

新兴内存解决方案扩展:针对定制AI市场的狂飙突进

新兴内存的创意风暴来了!峰会像后端封装的CoWoS和CoPoS技术一样,厂商们聚焦商用新内存,专为特定AI应用优化。

传统DRAM太通用,现在要“量身定做”!从PIM到新型闪存,目标直指定制AI市场,预计2025-2030年,这块儿CAGR超25%。

SK海力士的报告显示,AI专用内存需求从云端延伸到边缘,Winbond的CUBE技术(4层HBM用硅通孔和热压缩键合堆叠)已小规模出货。
NEO半导体8月爆出极端高带宽内存(X-HBM)架构,专为AI芯片设计,带宽比标准HBM高50%!

这波扩展不光拉动DRAM销量,还解决AI碎片化痛点。

X平台上,分析师们热议:“新兴内存是下一个万亿市场!”

边缘AI作为下一个增长阶段:扩展AI推理市场的黄金时代

焦点从训练转推理,边缘AI硬件总可用市场(TAM)要爆了!

摩根大通预测,2023-2030年CAGR 21%,到2030年达500亿美金!需求从云端杀向边缘设备,智能手机、汽车和消费电子渴求低延迟、低功耗、高带宽内存。

Winbond大秀CUBE技术,4层HBM用TSV和TCB堆叠,完美适配边缘!
其他厂商备战垂直扇出(VFO)方案,供应商预计2-3年内主流采用。
MarketsandMarkets报告说,2025年边缘AI硬件从261亿刀起步,到2030年589亿,CAGR 17.6%!
Grand View Research更乐观,21.7%到664亿!

这意味着啥?你的手机AI拍照不再卡顿,自动驾驶实时决策零延迟。

峰会爆料,苹果和特斯拉已下单边缘HBM,供应链火热。
X上网友喊:“边缘AI是下一个iPhone时刻!”
Fortune报告,2023年市场204亿刀,2032年2698亿!

高带宽内存混合键合解决方案加速采用:2027年提前引爆

厂商们快一步,出厂提前到2027下半年,测试已启动,不仅20层HBM,还包括16层HBM4E!
这技术用铜-铜键合,取代焊球,密度更高、功耗更低,峰会现场三星演示,良率超90%。

据Future Memory Storage PDF,HBM4成本从DDR的3倍升到4倍,但键合优化后快速降本。
投资者乐见其成,预计加速HBM渗透率到AI服务器80%。

这对DRAM长期增长是催化剂,2030年市场规模翻三倍!挑战?制造精度高,但台积电等 Foundry 已投巨资。总之,这节是技术巅峰,姐妹们,科技股多留意!

结语:DRAM黄金十年,抓住AI内存风口

摩根大通这份报告不光是数据堆砌,更是行业风向标!从cHBM到边缘AI,DRAM增长乐观,但风险在产能。