手机卡顿,游戏加载缓慢,大模型训练耗时,这些问题背后可能指向同一个瓶颈——内存性能不足。当AI应用对数据传输速度的要求呈指数级增长,传统内存技术就显得力不从心了-2

眼前的电脑、手机乃至数据中心里,内存芯片正经历一场从“平房”到“摩天大楼”的技术革命。一些顶尖芯片设计者把多层DRAM像搭积木一样垂直堆叠起来,让它们以全新的方式协同工作,解决AI时代的数据饥渴问题。


01 带宽瓶颈:AI浪潮下的内存之痛

想想使用最新AI功能时,手机偶尔出现的卡顿,或者运行大型游戏时的加载等待。这些体验背后,部分原因在于传统内存已难以满足AI芯片对数据传输速度的要求-2

AI训练需要处理海量参数,大模型的计算过程就像一个极度渴求数据的“巨兽”,不断吞吐着数万亿字节的信息。传统平面DRAM架构受限于物理空间和布线密度,数据传输通道有限,难以提供充足的“供水管道”。

AI模型越大,参数越多,内存带宽不足的问题就越突出。这种瓶颈直接制约了AI应用的响应速度、训练效率和用户体验。

02 技术突围:从平面布局到3D堆叠

面对这一挑战,工程师们开始转换思路:既然水平扩展面临物理限制,何不向垂直空间要资源?堆叠DRAM的设计思路应运而生,将多个DRAM芯片像多层建筑一样垂直堆叠起来-1

这种创新架构下,数据传输路径从长距离的水平走线,变成了短距离的垂直连接。通过硅通孔技术,在堆叠的DRAM芯片内蚀刻微孔,并填充导电材料形成垂直通道-1

HBM作为一种革命性的3D堆叠内存技术,正是基于这一原理-1。它通过垂直堆叠多层DRAM芯片(目前最高达12层),显著提升了单位面积的存储容量-1

这种设计不仅节省了宝贵的主板空间,还能实现传统平面布置无法达到的容量密度。可以将其比作在大城市中心建造摩天大楼,而不是在郊区铺开一片平房区。

03 堆叠DRAM的实战表现:不只是带宽提升

堆叠DRAM的价值远不止于提供更高带宽。在实际应用中,它带来了多方面的性能优势。

最直观的感受是数据响应速度的提升。想象一下,玩大型游戏时场景切换更加流畅,使用AI图像生成工具时处理速度大幅缩短。

与此同时,能耗明显降低。硅通孔技术缩短了数据传输距离,使HBM的能耗比传统方案降低约30-50%-1

垂直堆叠结构减少信号传输路径,降低了驱动互连所需的功率,这对于移动设备来说尤为重要,因为这意味着更长的电池续航时间。

空间占用也得到优化。HBM的PCB占用面积仅为传统方案的三分之一-1。以AMD Fiji GPU为例,采用HBM后PCB面积减少了55%-1,为更紧凑的系统设计提供了可能。

04 移动设备的变革:手机也用上堆叠技术

这项技术不仅局限于大型服务器和计算中心,也在向消费级产品渗透。手机作为人们日常生活中最常接触的智能设备,对内存性能的需求同样迫切-6

移动HBM(或称LPW DRAM)的出现,专门针对设备端AI优化设计。三星宣布将于2028年推出搭载LPW DRAM内存的首款移动产品-6

相较于最新的移动内存LPDDR5X,LPW DRAM的输入输出速度预计快166%,将超过每秒200千兆字节;功耗则降低54%-6

这一技术突破,意味着未来的手机将能更流畅地运行复杂的AI应用,如实时图像处理、语音识别和增强现实等,而不会因内存瓶颈而牺牲性能或续航。

05 创新不止:下一代堆叠技术探索

堆叠DRAM的演进并没有止步于当前形式,行业正积极探索下一代技术路径。3D DRAM作为新一代高密度架构,正成为存储技术发展的新方向-4

传统平面DRAM制程微缩逐渐逼近物理极限,而3D DRAM通过垂直堆叠存储单元的创新方式,在相同空间内集成更多存储单元,在不增加芯片面积的前提下显著提高存储容量-2

NEO半导体推出的3D X-DRAM技术,借鉴了3D NAND闪存的经验,结合创新型单元结构和新材料的应用,旨在突破传统DRAM在密度、功耗与性能方面的技术瓶颈-3

与传统平面型(2D)DRAM不同,3D X-DRAM采用垂直堆叠的方式,将存储单元结构在三维空间内展开-3。其核心思想是通过3D架构提升单位面积的存储密度,从而降低成本、提升带宽并优化能效比。

这项技术如果落地,意味着笔记本电脑能运行更高级的游戏,AI训练速度更快,手机甚至可能拥有512GB内存-3

06 技术挑战与多元化解决方案

堆叠DRAM技术并非一帆风顺,其发展面临多重挑战。制造成本高和良率控制难是当前最主要的问题之一-7。HBM制造需要先进的TSV堆叠工艺、微凸点键合、高精度封装测试,具备这种能力的厂商寥寥无几-7

散热管理也是一大挑战。随着堆叠层数增加,热量聚集问题愈发严重,需要创新的散热方案。目前已有厂商通过改进封装材料和结构设计,如使用环氧材料填充堆叠间隙,来改善散热表现-6

为了解决这些挑战,行业探索多元化技术路径。存算一体架构通过在存储器本体或邻近位置集成计算功能,规避传统架构中“计算-存储-数据搬运”的瓶颈-10

混合架构结合HBM与CXL等技术,形成分层内存系统。HBM作为热数据层,直接绑定GPU/CPU,存储高频访问数据;而CXL则作为冷数据扩展层,通过内存池化技术动态加载低频访问数据-7

这种分层设计既保持了高性能,又控制了成本,为不同类型的AI应用提供了灵活的内存解决方案。


未来的手机上,移动HBM可能像今天的快充技术一样普及。苹果被曝计划在2027年iPhone问世20周年的旗舰机型中首次搭载移动版HBM-6。与此同时,国内手机厂商也在研发规划中纳入了这一技术-6

行业分析师预测,搭载移动HBM的智能手机有望支持本地运行百亿参数大模型,图像生成速度或提升3倍以上-6当这些技术真正落地,人们与智能设备的互动方式将再次被重塑。