手机用久了会卡顿,有时不只是处理器慢了,更是因为内存和闪存这对兄弟在“闹别扭”。
前不久的CES展会上,芯片企业展示了一项能让普通笔记本电脑也能运行大型AI模型的技术,其核心居然是用闪存来“冒充”内存使用-2。

这个看似取巧的思路背后,其实点出了当下AI计算面临的关键瓶颈:传统DRAM内存虽快但贵且容量有限,而NAND Flash闪存便宜量大但速度较慢-1。

让我们先搞懂内存和闪存的那些事儿。DRAM,中文叫动态随机存取存储器,它就像是电脑的“工作台”。这个工作台有个特点:一旦断电,上面放的所有东西都会消失-1。
你可能会想,这多不方便啊!但正是这个“需要不断刷新数据”的特性,让DRAM拥有了极快的读写速度-3。
NAND Flash闪存则更像是“仓库”,数据存进去后,就算断电也不会丢失-1。它的容量可以做得很大,现在的固态硬盘动辄就是几个TB,价格也越来越亲民。
不过闪存的读写速度尤其是写入速度,相比DRAM要慢不少,而且有擦写次数限制-3。
简单说,DRAM负责“当下”,NAND Flash负责“长久”。当你玩游戏时,游戏数据从硬盘(通常是NAND Flash)加载到内存(DRAM)中,处理器直接在内存里处理这些数据,这就是它们最经典的配合方式-1。
存储器技术可没闲着,一直在往前跑。先说DRAM,从早期的平面结构到现在,单元面积已经从传统的“8F²”缩小到“6F²”-9。
这意味着在同样大小的芯片上,能塞进更多存储单元,容量自然就上去了。
三星等公司已经在研究下一代“4F²”布局和3D DRAM技术,打算把存储单元像建楼一样堆叠起来,进一步提升容量-9。
NAND Flash的变革更加彻底。平面NAND遇到物理极限后,行业转向了3D NAND-1。
你可以把它想象成从平房变成摩天大楼,通过垂直堆叠存储单元来增加容量。现在的3D NAND堆叠层数已经突破300层,而且还在继续增加-9。
更有趣的是,研究人员正在尝试将铁电薄膜应用于NAND闪存单元晶体管,这可能会带来更低的编程电压和更稳定的性能-9。
当AI大模型席卷全球时,存储器的角色开始发生微妙变化。AI模型越来越大,参数动辄上千亿,这对内存容量提出了前所未有的要求-4。
传统的DRAM虽然快,但成本太高,容量也有限制。这时候,人们开始重新思考NAND Flash和DRAM的配合方式。
群联电子推出的aiDAPTIV+技术就是一个典型例子。它通过专利技术将NAND Flash作为AI的扩充内存使用-2。
原本需要96GB DRAM才能处理的120B参数模型,现在只需要32GB DRAM加上NAND Flash的支持就能搞定-2。这种思路大幅降低了运行大型AI模型的硬件门槛。
英伟达的Vera Rubin平台将这种思路推向了新高度。这个AI计算平台重新设计了存储架构,构建了HBM-DRAM-NAND三层存储金字塔-7。
在这个架构中,NAND Flash不再是冷数据存储的后备军,而是成为了支撑AI超长上下文处理的核心力量-7。
具体来说,每个Rubin GPU通过BlueField-4 DPU连接16TB的NAND Flash,专门用于存储KV Cache和上下文数据-7。
这种设计使得AI模型能够处理更长的对话序列和海量输入数据。据预测,到2026年,仅Rubin平台就将带动NAND Flash增量需求达1590PB-7。
这些技术变革正在重塑存储市场。2025年第二季度,尽管NAND Flash平均销售价格有所下滑,但前五大品牌厂合计营收仍季增22%,达到146.7亿美元-10。
其中AI服务器带动的企业级SSD需求成为主要增长动力-10。
从资本支出看,2025年DRAM的资本支出预计为537亿美元,2026年可能增长至613亿美元;而NAND Flash的资本支出2025年预计为211亿美元,2026年小幅增长至222亿美元-4。
这些投资不仅用于扩大产能,更聚焦于技术升级,如更高层数的3D堆叠和HBM等高附加值产品-4。
未来几年,NAND Flash和DRAM的界限可能会进一步模糊。随着3D堆叠技术的成熟,可能会出现更多混合存储解决方案-9。
新型存储器如相变存储器、阻变存储器和铁电存储器也在研发中,它们试图结合DRAM的速度和NAND的非易失性-1。
对于普通用户来说,最直接的感受将是设备更加智能且响应更快。搭载新技术的笔记本电脑可以在本地运行更复杂的AI应用,而无需完全依赖云端-2。
手机可能会有更大的“内存”,其实是DRAM和NAND Flash更深度协作的结果,让多任务处理更加流畅。
从更广的视角看,存储技术的进步正在打破AI普及的硬件壁垒。当学生和开发者能在个人笔记本电脑上微调700亿参数模型时-2,AI创新的门槛将大幅降低,可能会催生出更多个性化、专业化的AI应用。
宏碁的一款笔记本电脑仅配备32GB内存,却成功运行了像gpt-oss-120b这样的大型AI模型-2。这背后是群联的aiDAPTIV+技术将部分内存负载转移到了NAND闪存。
在拉斯维加斯的CES展台上,搭载这项技术的笔记本电脑平静地处理着本需高端工作站才能完成的AI任务,参观者几乎意识不到,存储技术的悄然革新正在重塑人与机器交互的方式-2。