一片指甲盖大小的芯片上,DRAM从被工程师摇头叹气的难题,变成了驱动人工智能和每秒万亿次计算的关键推手。
“当时觉得把DRAM塞进SoC里,简直是自找麻烦。”一位从业二十年的芯片工程师回忆起二十一世纪初的情景,“工艺不成熟,功耗大得吓人,成本又高。索尼在PS2里那么做,大家都觉得是特例,没人敢跟。”

如今,情况完全不同了。你的手机、平板,甚至正火热的人工智能服务器,都离不开SoC中集成的DRAM技术。它已从当年那个“问题儿童”,成长为现代计算设备的性能核心。

回望2000年代初,业界对嵌入式DRAM普遍持保守态度。当时,大多数工程师更倾向于使用SRAM或分离的存储方案。
华邦电子的一位副总在2002年直言:“历史早有明证,过去电脑绘图晶片即尝试过将DRAM整合入但后来仍然把两者分开来设计,原因在于开发成本过高,不易回收。”-2
那时,除了索尼PS2游戏机因要求极高速的I/O而采用嵌入式DRAM的绘图晶片外,市场上鲜有成功案例-2。 大多数公司转向了多芯片封装技术,认为这才是更实用的解决方案。
当时的主流观点是,不同电路制程的整合面临巨大挑战。逻辑电路、存储器、模拟电路和射频电路各有各的工艺要求,强行整合到单一芯片上,不仅研发成本高昂,量产难度也极大-2。
转折点出现在半导体工艺的持续进步。随着制程从180纳米向130纳米、90纳米演进,嵌入式DRAM的可行性显著提升。
在180纳米工艺下,系统ASIC通常最多集成两块DRAM,总容量不超过64Mb;而到了130和90纳米工艺,系统可以集成四块以上的DRAM内核,最大容量达到120Mb-1。
更精细的工艺带来了更低的功耗。数据显示,从180纳米转换到130纳米工艺后,DRAM的分页写模式功耗降低了66%,待机功耗降低到原来的24%,而停止工作时的功耗仅有原来的12%-1。
功耗的大幅降低为嵌入式DRAM在便携设备中的应用扫清了障碍。手机、便携式摄像机等设备开始尝试这一技术,寻求更高的集成度和更优的性能功耗比。
随着时间的推移,不同类型的DRAM逐渐分化,针对不同应用场景优化。JEDEC制定了三类主要标准:标准DDR、移动DDR和图形DDR-6。
标准DDR主要面向服务器、云计算和消费电子产品。目前主流的DDR4标准支持最高3200Mbps的数据速率,工作电压为1.2V,比前代DDR3的1.5V有明显降低-6。
移动DDR专门为手机、平板等电池供电设备设计。最新的LPDDR5标准支持高达6400Mbps的数据速率,同时提供多种低功耗状态以延长电池寿命-6。这类DRAM通常采用更窄的通道宽度,进一步降低功耗。
图形DDR则面向需要极高吞吐量的应用,如显卡、游戏机和人工智能加速器。其中包括GDDR系列和HBM技术-6。HBM2标准通过3D堆叠技术,在较小面积内实现高带宽,适合对空间和功耗都有严格要求的应用。
在现代SoC设计中,内存控制器成为管理DRAM资源的关键组件。它负责将物理地址映射到逻辑地址,控制内存的操作时序,优化访问效率-7。
先进的内存控制器采用多种技术提升性能:包括缓存技术减少访问延迟、预取技术提前加载可能需要的数据、以及智能调度算法优化多个请求的顺序。
对于人工智能和高性能计算应用,嵌入式DRAM正展现出独特优势。紫光国芯开发的SeDRAM技术通过3D堆叠,可为算力芯片提供数十GB容量和数十TB带宽的存储方案-8。
这种嵌入式方案完全兼容传统SoC设计流程,以标准IP形式交付,帮助用户缩短研发周期,同时最大化产品性能-8。
人工智能的兴起推动DRAM技术向更高带宽、更大容量和更低功耗发展。美光最新推出的SOCAMM2模块采用LPDDR5X技术,容量高达192GB,专为AI数据中心设计-10。
这种模块在相同规格尺寸中提供比前代高出50%的容量,能将AI推理任务的首个token生成时间大幅缩短80%以上-10。 同时,能源效率提升20%以上,有助于大型数据中心的电源优化。
未来,随着CXL等新型互连技术的成熟,SoC中的DRAM将不仅限于片上集成,还可能通过先进接口与片外大容量存储高效协同-8。
更先进的封装技术,如3D堆叠和硅通孔技术,将使SoC能够集成更大容量、更高带宽的DRAM,同时控制功耗和成本。这些创新将推动从移动设备到数据中心的各种应用性能提升。
问:普通消费者怎么知道自己的设备里用的是哪种DRAM,不同类型的DRAM对我们使用体验影响大吗?
嘿,这是个很实际的问题!作为普通用户,虽然不需要了解技术细节,但知道点基础知识能帮你更好地选择设备。通常手机、平板会用移动DDR(LPDDR),你看手机参数时如果写着LPDDR4X或LPDDR5,那就是这类低功耗DRAM-6。
笔记本电脑和台式机则多用标准DDR,比如DDR4或最新的DDR5-6。 游戏本或工作站可能用图形DDR,像是GDDR6,这对游戏帧率和图形处理速度影响挺大-6。
对我们日常使用影响最直接的是容量和代际。同样是8GB内存,LPDDR5比LPDDR4X更快更省电,手机续航可能更长,应用启动更快。而DDR5相比DDR4带宽更高,处理大文件、多任务会更流畅。
如果你常玩大型游戏或做视频编辑,关注内存类型和频率很有必要。高端显卡用的GDDR6或HBM内存,能显著提升纹理加载速度和渲染效率-6。 简单说,花点时间了解设备用的是什么类型、什么代际的DRAM,能帮你花的每一分钱都更值。
问:为什么有些SoC选择把DRAM集成在芯片内部,有些却放在外部?这两种方式各有什么优劣?
这个问题问到点子上了!集成与否,其实是芯片设计中的经典权衡。把DRAM集成进SoC内部,我们叫嵌入式DRAM,最大的好处是带宽极高、延迟极低-8。 因为数据直接在芯片内部流动,不用经过相对慢速的芯片间接口。
紫光国芯的SeDRAM技术就能提供数十TB/s的带宽,这对AI计算、高性能处理器特别关键-8。 集成还能节省主板空间,简化系统设计,这对手机这类空间寸土寸金的设备尤其重要。
但集成的代价也不小:一是成本较高,存储器和逻辑电路制造工艺不同,整合会增加制造复杂度;二是容量受限,片上空间有限;三是技术更新慢,一旦制造完成,内存部分就无法升级-2。
外部DRAM则相反:成本较低、容量可灵活配置、升级方便。现在的DDR5模块单条就能达到128GB,这是片上集成难以比拟的-6。 外部方案也便于混合搭配,比如同时使用大容量DDR5和高速GDDR6-6。
所以你看,手机SoC常集成DRAM追求紧凑高效;而PC、服务器多采用外部模块,注重灵活扩展。没有绝对的好坏,只有适合与否。
问:AI火热对DRAM技术提出了哪些新要求?未来几年我们会看到什么样的变化?
AI确实是DRAM技术发展的最强推动力之一!AI模型参数动辄千亿,训练数据如山如海,这对内存提出了前所未有的要求:大容量、高带宽、低功耗,三者缺一不可-10。
传统DRAM架构面临挑战。比如大语言模型推理时,需要快速访问大量参数,传统内存带宽可能成为瓶颈。美光的SOCAMM2模块就是个回应,它把为手机设计的低功耗DRAM技术引入数据中心,在192GB容量下仍保持高能效-10。
未来几年,存算一体可能是个重要方向。与其在处理器和内存间来回搬运数据,不如在存储位置直接计算。这需要DRAM架构创新,比如在内存阵列中加入计算单元。
3D堆叠技术也会更普及,通过垂直堆叠多层DRAM芯片,在有限面积内实现容量和带宽的倍增-8。 像HBM技术就已经走在这条路上,未来堆叠层数可能更多,互连技术更先进。
新型接口标准如CXL也将改变游戏规则,让SoC能够更高效地使用片外大容量内存池,模糊片上片外的界限-8。 说不定未来我们看到的不是“是否集成”的选择,而是“如何智能分层使用多种存储资源”的架构。
对消费者来说,这些技术进步将让AI功能更普及,设备更智能,同时更省电。可能不久的将来,现在需要云端大模型处理的任务,在手机上就能实时完成,那场景想想就令人期待啊!