电脑开机时内存条闪烁的微光下,一场关于百亿美元市场与技术物理极限的博弈正在芯片的纳米世界中悄然上演。

三星电子、SK海力士和美光科技均已扩大其DDR5芯片产量,加速行业从DDR4向DDR5的过渡-2。这个看似普通的技术迭代背后,隐藏着DRAM行业面临的共同挑战:如何在逼近物理极限的工艺节点上,继续扩大DRAM规模并满足AI时代爆炸式的数据需求。


01 市场与技术,双重驱动的DRAM生态

DRAM市场已成为半导体行业的巨无霸,2022年其年营收接近700亿美元-2。这个庞大市场的产品按照应用场景主要分为三大类:标准DDR、LPDDR和GDDR-2

每一类DRAM都有明确的市场定位和技术路线,共同构成了复杂的DRAM规模生态。

标准DDR内存,即DDR SDRAM,是电脑和服务器中最常用的内存类型-2。它通过在一个时钟周期内读写两次数据,实现了数据传输速度的加倍-2

从DDR到DDR5,每一代产品的数据传输速率都翻倍增长。DDR5内存的数据传输速率可达6400Mbps-2。当前,三星已经开始了DDR6内存的早期开发,预计传输速度可达12800Mbps-2

在移动设备领域,LPDDR技术专注于低功耗和小体积,已成为智能手机等移动电子产品的标配-2

从LPDDR4开始,这项技术开始建立自己的规范体系,走上与标准DDR不同的发展道路-2

02 物理极限,DRAM微缩化的挑战

当DRAM芯片工艺进入10纳米级别,物理规律开始显现威力-8。目前的先进DRAM设备基于约18纳米到15纳米的工艺制造,而DRAM的物理极限大约在10纳米左右-3

传统DRAM采用单晶体管、单电容的1T1C存储单元架构-3。随着工艺节点不断缩小,要在更小空间内实现稳定的电荷存储和读写操作变得日益困难。

电容器漏电和干扰、传感裕度等方面的挑战愈发明显-8。工艺完整性、成本控制也成为制约因素-8

据行业分析,通过增高电容器减小面积以提高位密度的方法即将变得不可行-8。半导体行业预计能够在单位存储单元面积达到约10.4E-4µm²前维持2D DRAM架构-8

之后,空间不足将成为问题,这将提升对垂直架构,也就是3D DRAM的需求-8。这一转型直接关系到未来DRAM规模能否持续增长。

03 架构创新,突破瓶颈的新路径

面对物理极限,业界正在探索各种突破方案。3D DRAM采用硅通孔堆叠技术突破平面扩展限制,其中HBM3E等新型结构已实现12层堆叠-1

这种垂直堆叠的架构为DRAM密度提升开辟了新路径,2026年将推出基于IGZO材料的3D X-DRAM技术,单模块容量达512Gb-1

材料创新也在推动DRAM技术进步。研究人员设计了基于铟镓锌氧化物薄膜晶体管的DRAM单元结构,实现了两个晶体管无电容的2T0C配置-3

这种基于IGZO-TFT的DRAM单元显示出超过400秒的保留时间,远高于传统DRAM,从而降低了内存的刷新率和功耗-3

更令人兴奋的是,IGZO-TFT晶体管可以在相对较低的温度下制造,与后端工艺兼容-3。这使得将DRAM存储单元的外围电路移动到存储阵列下方成为可能,大大减少了内存占用面积-3

04 应用分野,不同场景的DRAM选择

在图形处理领域,GDDR技术专门为GPU设计,具有更高的带宽和频率-2。从GDDR到GDDR6,带宽实现了巨大飞跃。

2018年,搭配256位位宽的GDDR6带宽已达到768GB/s,而同期DDR4-3200的带宽仅为25.6GB/s-2

最新进展是三星完成了新一代GDDR7芯片的开发,拥有破纪录的1.5TBps带宽,比GDDR6高出40%-2。每引脚速度达到32Gbps,比上一代产品高出33%-2

这些显存技术不仅用于显卡,也正在扩展到人工智能、高性能计算和汽车等新兴领域-2

在移动设备领域,LPDDR5X技术将功耗大幅降低:短视频功耗降低30%,长视频功耗降低25%,游戏功耗降低30%-2。这种能效提升对延长移动设备电池寿命至关重要。

05 未来战场,存算一体与近存计算

随着AI应用对数据访问速度要求越来越高,传统的存储与计算分离架构遇到瓶颈。存内计算技术试图将部分计算任务放在存储端执行,降低数据移动的能耗-8

以三星的PIM技术为例,将关键算法内核放在内存中的处理单元执行,相比传统HBM方案可将能耗降低70%以上-8

近存计算是另一条重要路径,HBM技术作为主流近存高带宽方案,已被广泛应用在新一代的AI芯片和GPU上-8

HBM3e产品提供1.2TB/s的超大带宽,足以满足绝大多数AI芯片的数据传输需求-8。未来的HBM4更是承诺1.5TB/s到2TB/s的带宽-8

值得注意的是,更大的SRAM设计也成为一种选择。特斯拉Dojo超算系统的自研芯片D1就采用了超大SRAM的技术路线-8

单个D1核心拥有1.25MB的SRAM,加载速度达到400GB/s-8。这种设计用远超L2缓存级别的SRAM容量,实现L1缓存级别的带宽和延迟-8


DRAM技术的发展轨迹如同芯片上的电路,在纳米尺度上蜿蜒前行却始终指向更高效的数据世界。 当三星的工程师在实验室测试GDDR7芯片时,美光的产线上1β工艺节点正将制造成本逐渐降低-2

存储单元中,基于IGZO的材料静静等待2026年商业化量产,而HBM4的带宽承诺已经在图纸上勾勒出未来AI计算的轮廓-1-8


下面三个问题可能也是你想了解的:

问:我是一名游戏玩家,现在装机应该选择DDR4还是DDR5?未来几年内还需要再升级吗?

答:作为一名游戏玩家,你的选择确实需要权衡现在和未来。目前DDR5内存价格已经趋于合理,性能优势也逐步显现。DDR5的基准速率从4800MHz起步,比DDR4的3200MHz有明显提升-2

更重要的是,DDR5采用了双通道设计,即使是单条内存也能实现双通道效果,这对游戏性能有帮助。

从未来趋势看,行业正在加速从DDR4向DDR5过渡-2。英特尔和AMD的新平台都对DDR5有更好支持。如果你计划使用的CPU是第13代酷睿或AMD 7000系列,那么DDR5是更合适的选择。

考虑到升级周期,现在选择DDR5至少能保证未来3-4年不落伍。预计DDR6要到2025年后才可能商业化-2,所以现阶段DDR5是性价比和未来兼容性平衡较好的选择。

问:不同DRAM类型(DDR、LPDDR、GDDR)之间究竟能不能互换使用?为什么?

答:这是一个很好的技术问题。简单来说,这些DRAM类型不能互换使用,原因在于它们的设计目标和电气特性完全不同。

标准DDR内存主要追求容量与成本的平衡,延迟极低,适合配合CPU进行串行计算-2。它的设计目标是尽可能快地传输少量数据。

LPDDR专为低功耗场景设计,提供更窄的通道宽度,主要应用于移动电子产品-2。它在保持一定性能的同时,大幅降低了功耗,这是通过不同的电路设计和工艺实现的。

GDDR则专门为图形处理设计,具有更大带宽和更高频率-2。显卡的并行任务特性意味着需要频繁存取大量数据,但对延迟的要求没有CPU那么高-2

电气参数上,这三种内存的工作电压、时钟频率和信号接口都有差异。例如GDDR有专属的工作频率和电压,与标准DDR存储器不能共用-8。所以尽管它们都基于DRAM技术,但已经分化成针对不同应用场景的专用产品。

问:AI时代对DRAM技术提出了哪些新要求?未来的DRAM会是什么样子?

答:AI的兴起确实正在重塑DRAM技术的发展方向。AI模型特别是大语言模型需要处理海量参数,这对内存带宽和容量提出了前所未有的要求。

AI应用需要极高的内存带宽来快速传输数据。这就是为什么HBM技术变得如此重要——HBM3e已经能提供1.2TB/s的带宽-8。同时,DRAM规模需要继续扩大,以容纳越来越大的模型。

能效比成为关键指标。AI计算往往需要长时间运行,功耗直接影响运营成本。新的GDDR7芯片能效比GDDR6提高了20%-2,这种进步对AI应用至关重要。

未来DRAM可能会沿着几个方向发展:一是继续推进3D堆叠,通过垂直扩展提升密度;二是探索存算一体架构,减少数据搬运能耗;三是材料创新,如IGZO-TFT技术可能带来突破-3

预计到2026年,基于IGZO材料的3D X-DRAM技术将实现单模块512Gb容量-1。同时,存内计算技术有望将能耗降低70%以上-8

未来的DRAM将更加专业化,针对AI、自动驾驶等特定场景优化,而不是追求通用性。