一个简单的忽视决策,正悄悄影响着每一部手机的反应速度和每一个数据中心的电费账单。
三星电子推迟了其最先进结构DRAM的量产计划,将原本2026年的目标推至2028年-9。这背后是全球存储芯片市场的剧烈波动——AI需求引爆了高端内存市场,常规DRAM供应紧张,价格飙升-5。

与此同时,工程师们正尝试用更聪明的方式“ignore dram”中不必要的操作,在硬件资源有限的情况下挤出更多性能。

当前电子设备中的内存,正经历着一场前所未有的身份危机。曾经默默无闻的组件,如今成了制约AI发展的关键瓶颈。市场研究机构IDC预测,这种短缺局面将持续到2027年,重塑全球设备市场-5。
AI的爆炸性增长,特别是生成式AI的兴起,完全改变了游戏规则。数据中心对高带宽内存的渴求,让NVIDIA、AMD等公司与三星、SK海力士和美光等存储巨头展开激烈竞争-5。
这些存储巨头占据了超过90%的RAM市场份额-5,如今面临艰难选择:是全力投入利润更高的HBM研发,还是维持传统DRAM的产量?美光和SK海力士选择了前者,导致DRAM芯片供应短缺-5。
这种情况已经影响到普通消费者。中端智能手机的内存容量可能会被限制在6GB到8GB之间,而为了顺畅运行AI功能,业界认为20GB内存最终将成为主流配置-5。
面对内存容量限制,工程师们不得不变得更聪明。一种思路是ignore dram中那些不再需要的数据,避免不必要的刷新操作。
传统的DRAM需要定期刷新来保持数据,因为它的存储单元由一个电容器和一个晶体管组成,电容器中的电荷会随时间泄漏-10。刷新意味着读取存储器的内容并将其重新写回,这个过程消耗着宝贵的带宽和电力。
研究者们提出了一种创新方法:通过软件和硬件协同,标记那些不再会被读取的DRAM行,让内存控制器避免刷新这些行-2。这种方法平均可以忽略60%的刷新操作,而不会影响系统正确性-2。
具体实现上,他们在指令集架构中增加了新指令,当数据不再需要时,这条指令会通知内存控制器停止刷新对应的DRAM行-2。这种“选择性忽视”策略,本质上是对有限内存资源的智能管理。
在实际系统中,类似“ignore dram”理念的技术已经得到应用。ACRN hypervisor项目在解析DMAR时就采用了初始化dmar_hw_list.hw_ignore的方法-7。
这种做法确保了在硬件重映射单元中没有设备的情况下,系统能够正确识别并忽略这些单元,而不影响整体功能。
另一个前沿方向是“每行激活计数”技术。PRAC通过修改DRAM时序参数减少读干扰,每行DRAM都携带一个激活计数器-8。
实际测试显示,这项技术的平均性能开销仅为1.06%,最大开销为3.28%,远低于模拟器预测的9.15%-8。关闭页面策略能进一步降低开销,将因PRAC而延长的行预充电操作从关键路径中隐藏起来-8。
当直接增加内存容量面临困难时,工程师们开始寻找各种巧妙的解决方案。苹果公司正在研究如何将大型语言模型存储在闪存而非内存中-5。
这种方法利用了闪存容量大、成本低的优势,虽然速度较慢,但通过智能缓存和预取技术,可以在一定程度上缓解内存压力。
三星则另辟蹊径,据传正在开发一种专为生成式AI优化的特殊UFS存储格式-5。这种针对特定应用优化的存储方案,可能会比通用解决方案更高效。
在技术层面,新型内存架构也在不断涌现。MVDRAM系统利用未修改的DRAM加速低比特LLM推理,通过优化处理器与DRAM之间的协作,避免传统方法中的额外开销-3。
实验显示,对于2比特和4比特量化模型,MVDRAM分别实现了2.18倍和1.31倍的吞吐量提升-3。
长远来看,DRAM技术本身也在进化,可能不再需要当前这种频繁的刷新操作。动态闪存技术声称其密度是DRAM的四倍,并且刷新周期之间的间隔更长-10。
DFM技术不依赖电容器,泄漏路径较少,提供块刷新和擦除,并且比DRAM提供更快的访问速度-10。
另一种有前景的技术是2T0C DRAM,它仅由两个晶体管制成,没有电容器-10。这种设计读取数据时无需破坏数据,不必重写数据,特别适合AI应用-10。
更激进的解决方案来自IBM,他们展示了有史以来最小的无电容器DRAM,存储单元长度只有14纳米-10。这种DRAM使用晶体管主体作为电荷存储介质,采用InGaAs等III-V材料,可能在更低电压下工作-10。
内存市场正经历一场完美风暴,供应链波动让DRAM成为最不稳定的组件之一-5。建造一座DRAM工厂需投资数十亿美元,建设周期至少三年-5。
即使今天决定建厂,也要等到2028年底才能试产-5。在这场变革中,学会聪明地 ignore dram 中不必要的操作,可能比单纯追求更大容量更有意义。
网友“硬件小白”提问: 我是个普通用户,不太懂技术。能不能简单解释下,为什么我的手机内存越来越大,但好像还是不够用?这和文章里说的DRAM短缺有什么关系?
这是一个非常好的问题!简单来说,你可以把手机内存想象成一个临时工作台。以前的工作任务比较简单,比如同时聊微信、刷网页、听音乐,8GB的工作台完全够用。
但现在的情况完全不同了,AI功能就像突然请来了一个特别占地方的“工作伙伴”。比如实时语音翻译、图像智能处理、个性化推荐这些功能,它们需要在工作台上同时摆放大量数据和模型,瞬间就把空间占满了-5。
更棘手的是,这个“工作台”本身(也就是DRAM芯片)现在供应紧张、价格大涨-5。制造商面临两难:要么提高售价把成本转嫁给消费者,要么就在中端机型上减少内存容量-5。
这就是为什么你会感觉“内存越来越大却还是不够用”——因为需求增长的速度,特别是AI带来的需求,已经超过了内存容量增长和供应的速度。
不过别太担心,工程师们正在努力优化,让有限的内存能发挥更大作用。就像文章提到的,通过智能管理,忽略DRAM中不必要的数据刷新,或者把一些不常用的AI模型存到“仓库”(闪存)里,用的时候再快速取一部分到“工作台”上-5。
网友“技术爱好者”提问: 我对文中的“无电容器DRAM”很感兴趣。能不能详细讲讲,没有了电容器,它怎么存数据?这技术真的能替代现在的DRAM吗?
很高兴你对这个技术细节感兴趣!传统DRAM存储数据的原理,就像用一个小水桶(电容器)装水(电荷)来表示0或1-10。但水桶会漏水,所以必须定期检查并添水(刷新)。
而无电容器DRAM,可以想象成用一种特殊的多孔海绵(晶体管本身的结构特性)来吸水。比如2T0C DRAM,它完全摒弃了独立的水桶,仅用两个晶体管协作-10。
数据(电荷)被存储在晶体管自身的某个“角落”里(比如栅极下方或浮体中-10)。由于这个“角落”的物理特性,电荷流失的速度比从“水桶”中慢得多,有的技术甚至能做到读取时完全不破坏原有电荷-10。
它能否替代传统DRAM?目前看,是互补而非简单替代。它的优势明显:结构更简单,有望更省电、密度更高-10。IBM研发的无电容器DRAM单元长度仅14纳米-10。
但挑战也存在:新材料(如IGZO氧化物半导体)的成熟度和制造成本-10,以及如何与现有庞大的DRAM生态系统兼容。未来更可能是在不同场景下各展所长:对密度和能效要求极高的移动端和嵌入式AI,可能会率先采用新型内存;而对容量和成本最敏感的数据中心,传统DRAM的生命周期还会很长。
网友“行业观察者”提问: 从行业角度看,当前DRAM的短缺和价格波动,除了AI需求,还有没有更深层的原因?这种局面会如何改变行业的竞争格局?
你的观察很敏锐。AI需求是引爆点,但深层原因在于存储器行业固有的“周期性”和“重资产、长周期”特点。这次短缺之所以如此剧烈,是几个因素叠加的结果:
首先是资本支出的战略性转移。当SK海力士、美光等巨头看到HBM(高带宽内存)用于AI服务器利润更高时,自然会调整产能-5。但这就像一条大河突然改道,原有的DRAM“河床”就会干涸。
其次是技术路线的博弈与摇摆。例如三星,曾被报道在HBM开发上错失先机,后又推迟了4F2VCT等尖端DRAM结构的量产-9。这种巨头内部的战略调整,会在短期内加剧供应不确定性。
这种局面正重塑竞争格局:一是加速技术分层,掌握HBM等先进技术的厂商将占据利润高地;二是可能打开结构性机会窗口,为文章中提到的DFM、Z-RAM等替代技术-10或像MVDRAM-3这样的创新架构,提供了在特定领域证明自身的契机。
三是推动软硬件协同优化成为核心竞争力。当硬件扩容又贵又慢时,谁能通过系统、算法和编译器的优化,更高效地利用每一寸内存,谁就能获得优势。这也正是“ignore dram不必要刷新”这类精细化管理技术越来越受重视的原因-2。
长期看,行业可能会从过去的同质化规模竞争,转向更多元化的、基于技术路径和垂直整合能力的竞争。但建造新厂需要至少三年-5,所以未来两三年,供应紧张和价格波动可能仍是常态。