【作者背景介绍】
本文核心观点源自韩国科学技术院(KAIST)电气与电子工程系教授金正浩(Kim Jeong-ho)。作为全球公认的“HBM之父”,金正浩教授在高带宽内存(High Bandwidth Memory)架构的早期研发中发挥了关键作用。
他不仅推动了3D堆叠、硅通孔(TSV)互联等核心技术的落地,还深度参与了HBM从学术构想到产业标准的全过程。
如今,他再次站在技术浪潮前沿,提出“高带宽闪存”(HBF)将成为下一代AI基础设施的核心组件,其判断极具前瞻性和产业指导意义。
【第一章:HBM之父重磅发声——下一个内存革命已经启动】
在2025年11月3日于仁川松岛会展中心举行的国际先进半导体基板与封装产业展(KPCA Show)上,金正浩教授以一场极具震撼力的主题演讲,向全球半导体行业抛出了一枚“技术核弹”。
他明确指出:“一个新时代即将到来,在这个时代,高带宽闪存(HBF)将决定谁是内存市场的最终赢家。”这句话并非空穴来风,而是基于对AI算力演进路径、存储瓶颈现状以及材料物理极限的深刻洞察。
要知道,金教授正是当年亲手把HBM从实验室推向数据中心的关键人物,他的每一次技术预判,几乎都精准命中产业拐点。
【第二章:什么是HBF?它和HBM到底有什么区别?】
简单来说,HBF就是把NAND闪存像搭积木一样垂直堆叠起来,并通过硅通孔(TSV)实现芯片间的高速互联——这听起来是不是特别像HBM?没错,HBF正是借鉴了HBM的3D堆叠架构,但把原本用于DRAM的部分换成了NAND闪存。
DRAM速度快但容量小、成本高;NAND速度慢但容量大、价格低。
过去这两种存储介质各司其职,互不干扰。但在AI大模型动辄需要处理百万级输入token、消耗TB级数据的今天,传统内存架构已经捉襟见肘。
于是,HBF应运而生——它试图在保留高带宽优势的同时,大幅扩展存储容量,从而填补HBM在“海量数据驻留”方面的短板。
【第三章:为什么AI需要HBF?内存带宽已成最大瓶颈】
金教授一针见血地指出:“今天的AI,尤其是基于Transformer架构的大语言模型,性能提升严重依赖内存带宽和容量。”
举个例子,如果一个模型要同时处理一百万个输入词元(tokens),背后可能涉及数TB的数据搬运。而当前主流GPU即便拥有数千个计算核心,一旦内存带宽跟不上,这些核心也只能干等着——就像高速公路修得再宽,入口却只有单车道,车流根本跑不起来。
这就是所谓的“内存墙”问题。
更糟糕的是,传统冯·诺依曼架构中,处理器和内存是分离的,数据必须反复在两者之间搬运,进一步加剧延迟。
金教授强调:“就算你把GPU规模翻倍,没有足够的内存带宽,性能提升几乎为零。AI的性能,本质上是由内存决定的。”
【第四章:HBF如何与HBM协同作战?打造AI专用内存新范式】
未来的AI系统很可能采用“HBM + HBF”双层内存架构。
- 其中,HBM继续担任高速缓存的角色,负责临时数据的快速读写;
- 而HBF则直接集成在GPU基底上,用来完整存放整个大模型参数。
HBM是你的工作台,上面放着正在处理的文件;HBF则是你身后的巨型书架,里面装着整座图书馆的资料。当你需要某本书时,系统能以极低延迟从书架调取到桌面。这种设计不仅能突破当前HBM容量仅几十GB的限制,还能让万亿参数模型真正实现实时推理。
金教授特别提到:“三星电子和SK海力士同时掌握DRAM和NAND闪存技术,这是他们独有的战略优势。别人想模仿HBF,光有设计能力远远不够,必须拥有完整的存储产业链。”
【第五章:NAND堆叠技术已逼近千层,容量爆炸式增长】
很多人认为NAND闪存太慢,不适合做主内存。但金教授反驳道:“速度固然重要,但容量才是未来AI的命脉。”目前,主流3D NAND已经能做到200多层堆叠,而实验室中已有超过500层的技术原型。如果按照HBF的思路,再叠加10倍的垂直集成密度,理论上可以实现数千层结构——这意味着单颗芯片的容量可能达到TB级别。
虽然读写速度仍无法与DRAM媲美,但在智能调度和缓存预取算法的加持下,HBF完全可以承担“近存计算”或“存内计算”的部分任务。
更重要的是,NAND的成本远低于DRAM,大规模部署更具经济可行性。对于需要7×24小时运行的AI数据中心而言,成本与能效比往往比峰值性能更重要。
【第六章:TSV不仅是连接通道,更是供电与散热的生命线】
除了堆叠结构,金教授还特别强调了硅通孔(TSV)的多重角色。在HBM和未来的HBF中,TSV不仅是数据传输的高速公路,还承担着电力输送和热量导出的关键功能。
他直言不讳地指出:“三星和SK海力士的HBM产品之所以存在性能差异,很可能是因为三星为了节省成本,在TSV数量上做了妥协。”
这一细节揭示了高端存储芯片的竞争早已超越单纯的制程工艺,进入系统级工程优化的深水区。未来HBF若要稳定运行在高频率、高负载状态下,TSV的设计密度、材料纯度乃至热膨胀系数匹配都将成为决定成败的关键因素。
【第七章:市场信号强烈——存储价格全线飙升,供需失衡加剧】
技术预言的背后,是真实而紧迫的市场压力。当前全球存储市场正经历新一轮供不应求的紧张局面。
DRAM方面,DDR5颗粒价格已暴涨30%;NAND闪存现货价格持续走强;
更值得注意的是,SK海力士512Gb晶圆的现货报价已飙升至6美元,创下近期新高。而在eMMC领域,三星4GB/8GB等低容量产品因物联网、边缘设备需求旺盛,买家询价不断,但原厂控货惜售,导致低价成交极少,整体交易量受限。
这种“买不到、买不起、不敢等”的局面,恰恰印证了AI爆发对存储资源的吞噬速度远超预期。厂商们显然已嗅到HBF时代的临近,开始提前卡位产能与技术储备。
【第八章:HBF不是取代HBM,而是构建更强大的AI内存生态】
需要澄清的是,HBF并非要完全取代HBM,而是与其形成互补关系。HBM擅长高频、低延迟的短时数据交互,适合处理激活函数、注意力权重等动态计算;而HBF则专注于静态模型参数的高效存储与按需调用。两者结合,才能构建出既能“快”又能“大”的AI内存子系统。
金教授预测:“未来五年内,我们会看到首款集成HBF的AI加速器原型;十年之内,HBF将成为高端AI芯片的标准配置。”届时,谁能率先实现HBM与HBF的异构集成、热管理协同和电源效率优化,谁就将主导下一代AI硬件的话语权。
【第九章:三星与SK海力士的双重优势——垂直整合是护城河】
在全球存储巨头中,只有三星电子和SK海力士同时具备DRAM和NAND闪存的自主研发与大规模制造能力。这意味着它们不仅能独立开发HBF所需的堆叠工艺、TSV技术和封装方案,还能在系统层面进行端到端优化。
相比之下,其他厂商即便拥有先进封装技术,也难以获得稳定、高性能的NAND供应。
金教授认为:“这种垂直整合能力,在HBF时代将成为不可复制的竞争壁垒。”尤其当AI芯片厂商开始要求“内存即服务”(Memory-as-a-Service)时,能够提供从HBM到HBF全栈解决方案的供应商,无疑将占据绝对主动。
【第十章:从技术预言到产业落地,我们正站在新纪元的门槛】
金正浩教授的这次演讲,不只是对未来技术的展望,更是一份行动指南。它提醒所有AI硬件开发者:不要只盯着算力数字,更要关注内存架构的革新。
HBF的出现,标志着存储技术正从“被动支撑”转向“主动驱动”AI发展。随着视频生成、3D世界建模、实时多模态交互等应用的普及,AI对内存的需求将呈指数级增长。而HBF,正是打开这扇大门的钥匙。
我们或许正在见证一个新时代的黎明——在这个时代,内存不再只是配角,而是决定AI能否真正“思考”的核心引擎。
【结语】
从HBM到HBF,从带宽竞赛到容量革命,存储技术的演进轨迹清晰映射出AI发展的深层需求。金正浩教授以其深厚的学术积淀与产业洞察,为我们描绘了一幅未来十年的内存蓝图。在这场即将展开的HBF争夺战中,技术、产能、生态缺一不可。
而对于普通用户而言,这场变革最终将带来更快的AI响应、更智能的服务体验,以及更低成本的算力普惠。