一块指甲盖大小的芯片,里面垂直堆叠着十几层存储单元,每秒钟能在GPU之间搬运超过1.2TB的数据——这相当于在一秒钟内传输完250部高清电影。
AI模型参数规模从几亿暴涨到数万亿,训练ChatGPT这样的模型需要数月时间和数百万美元的计算资源,其中的瓶颈往往不是处理器本身,而是数据搬运的速度。

当GPU拼命想吃数据时,传统内存却像细水管一样无法满足需求,这就是所谓的“内存墙”问题。

DRAM HBM可不是普通的内存条,它本质上是一种基于3D堆叠工艺的高性能动态随机存取存储器。简单说,就是把多层DRAM芯片像搭积木一样垂直堆叠起来-7。
这种设计聪明在哪里呢?传统内存是“平铺”在电路板上的,而HBM选择向上发展。
它通过硅通孔技术,在芯片上打上成千上万个直径仅5-10微米的微孔,然后用导电材料填充,形成垂直通道-2。
这样一来,数据不需要绕远路,可以直接上下穿行,速度那叫一个快啊。目前的HBM3E单堆栈带宽已经达到1.2TB/s,而下一代HBM4更是直奔2.0TB/s而去-2。
AI时代为什么这么依赖DRAM HBM呢?您琢磨琢磨,现在的AI大动辄就是千亿、万亿参数,训练这些模型需要在GPU内存里塞进海量数据。
如果内存带宽跟不上,再强的GPU也得“饿肚子”,闲着等数据。HBM就是来解决这个痛点的。
它通过2.5D先进封装技术,把HBM堆栈和GPU放在同一个硅中介层上,让它们成为“近邻”。数据不用长途跋涉,走几步就到了-2。
这种设计带来的好处实实在在:功耗比传统方案降低30-50%,PCB占用面积减少到三分之一-2。对于需要密集部署AI服务器的数据中心来说,这省下的电费和空间可不是小数目。
现在的DRAM HBM市场可以说是“三国演义”,SK海力士、三星和美光三足鼎立。不过这场竞赛已经出现了明显的领跑者。
2025年一季度,SK海力士凭借在HBM领域的绝对优势,结束了三星长达四十多年的市场统治,首次登顶全球DRAM市场第一-3。
为什么差距会拉开?因为HBM的技术门槛实在太高了。它需要同时掌握先进的DRAM制程、TSV硅通孔技术和2.5D/3D封装技术。
良率相比普通DDR5内存要低20-30%,生产周期也要长1.5-2个月-5。这不是随便哪个玩家都能玩得转的游戏。
市场对DRAM HBM的需求正在爆炸式增长。2024年全球HBM市场规模约180亿美元,同比增长接近3倍-2。
到2030年,这个数字预计将突破1000亿美元-2。更惊人的是,到那时HBM在DRAM总营收中的占比可能达到56%-2。
是什么在推动这样的增长?首先是AI芯片需求激增,英伟达、AMD等公司的位元需求复合年增长率预计超过50%-2。
其次是各国的主权AI计划,像沙特计划投资100亿美元采购1.8万颗英伟达GPU,韩国推出100万亿韩元的主权AI计划-2。
这些国家级项目正在创造全新的需求增长点。
DRAM HBM的技术演进远未停止。2025年4月,JEDEC发布了HBM4官方规范,下一代产品已经呼之欲出-2。
HBM4将带来2048位的超宽接口,单堆栈容量提升至48GB以上,还会在基础芯片中集成内存控制器-2。
更长远来看,技术路线图已经规划到了HBM5和HBM6。预计HBM5将在2027年左右引入近存计算模块,让部分计算直接在内存中进行-2。
HBM6则可能采用“双塔”结构,一个基础芯片支持两个DRAM堆栈-2。
随着堆叠层数向16层甚至更高发展,互连技术也将从微凸块向铜-铜混合键合过渡,实现微米级的3D互连-2。
网友“芯片爱好者”提问:能通俗解释下HBM的3D堆叠和传统内存有什么本质区别吗?为什么这种设计就能带来带宽的飞跃?
这个问题问得好!咱用盖房子来比喻吧。传统内存好比平房小区,所有住户(数据)都住在地面一层,想串门得走很远的路。
HBM的3D堆叠就像建摩天大楼,把住户(数据)分层安置,每层楼都有直达电梯(TSV硅通孔)。
关键在于,这些“电梯”是直上直下的,不需要绕路。传统内存的数据传输得通过PCB板上的走线,相当于要从一栋平房走到另一栋平房,路径长、速度慢。
而HBM中,数据通过TSV垂直传输,路径缩短到几十微米,速度自然就上去了-2。
更厉害的是,HBM的大楼(堆栈)和GPU的工作场所(处理器)建在同一个“园区”(硅中介层)里,几步路就能到。
而传统内存的平房小区和GPU工作场所可能隔了好几条街,通勤时间自然就长了-2。
这种设计不仅速度快,还省空间省能源,这就是为什么HBM能成为AI芯片的“心头好”。
网友“科技观察者”提问:现在全球都在抢HBM产能,这对普通消费者用的电脑手机内存市场会产生什么影响?我们会面临内存涨价吗?
您观察得很敏锐,这确实是正在发生的情况!存储大厂现在都把产能和先进制程优先分配给利润更高的HBM和DDR5产品-3。
对于传统DDR4内存,美光等厂商已经发出停产通知,最后一批出货将在未来2-3个季度内进行-3。
这种产能转移已经造成了结构性影响。预计2025年下半年,DDR4产品收入占美光总收入的比例将仅为低个位数-3。
供应减少自然会推高价格,TrendForce预测2025年三季度将是DDR4合约价上涨幅度最高的季度-3。
不过对于普通消费者来说,情况是分化的。如果您还在用DDR4平台,未来升级内存可能会更贵。
但如果您已经转向DDR5平台,影响相对较小,因为厂商仍在扩大DDR5产能-3。
长期来看,整个存储行业正在从“以容量论英雄”转向“以性能定价值”-6。高带宽、低功耗的产品会成为主流,而HBM技术的一些设计理念也可能逐步下放到消费级产品中。
网友“未来猜想”提问:看到有分析说HBM可能用于手机甚至汽车,这现实吗?现在的HBM功耗和散热手机能扛得住吗?
您的猜想很有意思,这确实是行业探索的方向!虽然目前HBM主要用于数据中心,但手机巨头已经在考虑将其引入手机-3。
不过确实如您所说,挑战不小。HBM的高带宽是以功耗为代价的,而手机对功耗极为敏感。
手机SoC的散热能力也无法与数据中心GPU相提并论。但是技术总是在进步的,HBM能效比其实已经比GDDR5提高了30-50%-2。
未来通过制程改进、架构优化,以及手机散热技术的提升,HBM精简版进入高端手机是可能的。
汽车领域可能更具前景,正如一位行业资深人士所说:“电动车就像有四个轮子的服务器”-3。
电动汽车电池容量大,散热条件好,对AI算力的需求日益增长,确实比手机更适合HBM技术。
自动驾驶需要实时处理大量传感器数据,这恰恰是HBM擅长的场景。
不过这一切不会一蹴而就,需要芯片设计、封装技术和系统优化的共同突破。但可以确定的是,高性能内存的需求正从云端向边缘设备扩散,而HBM技术将在这一过程中扮演重要角色-8。