磁芯存储器嗡嗡作响的机房深处,一个年轻工程师脑海中闪过用单个晶体管存储数据的念头,这个瞬间改写了整个计算机发展史。
“我就寻思,能不能用一个晶体管存一个数儿呢?”多年后,罗伯特·登纳德回忆起1966年那个灵光乍现的夜晚-9。

当时IBM的同事还在为缩小磁存储器绞尽脑汁,而这位德州出生的工程师却另辟蹊径,他提出了那个划时代的1T/1C结构——一个晶体管加一个电容器就能存储一位数据-1。

1966年,IBM托马斯·沃森研究中心的实验室里,34岁的登纳德盯着同事的研究简报发呆-9。那时候计算机用的还是磁芯存储器,庞大得跟机房似的系统只能存1MB数据,差不多就是一本500页书的内容-9。
登纳德的同事们想方设法要把下一代磁存储器缩小到25平方厘米,但他总觉得这条路子不对劲。那晚他躺在床上琢磨:“半导体技术能不能搞点新花样?”
当时的硅芯片设计师已经能用六个晶体管存一个比特了,但登纳德觉得这太浪费。他突发奇想:为啥不能一个晶体管存一个比特呢?
这个想法绝了!只需要一点能量不断刷新电容上的电荷,数据就能保存下来-9。1968年,IBM给这个发明注册了专利-1,DRAM时代正式开启。
这位DRAM教父的贡献可不止发明了一种内存。1972年,他提出了著名的“登纳德缩放定律”,这玩意儿跟摩尔定律齐名,并称半导体行业两大黄金法则-1。
简单说,这定律预言晶体管越小,功耗密度就能保持不变。电压和电流随尺寸等比缩小,但性能反而提升-6。
登纳德缩放定律和摩尔定律双剑合璧,推动了半导体行业三十多年的飞速发展。摩尔定律负责往芯片里塞更多晶体管,登纳德缩放定律则确保这些晶体管不“发烧”-9。
正是这两大定律的默契配合,让我们手里的设备越来越强大,同时能耗越来越低。从个人电脑到智能手机,这个良性循环创造了信息技术爆炸的时代-9。
DRAM的产业化之路并非一帆风顺。虽然IBM在1968年就拿到了专利,但美国司法部的反垄断调查拖慢了商业化脚步-1。
直到1970年10月,英特尔推出了第一款商用DRAM芯片C1103,这项技术才真正走向市场-1。当时的行业老大英特尔凭借DRAM产品,在1974年拿下了全球82.9%的市场份额-5。
但好景不长,日本厂商在70年代末举国发展DRAM技术,迅速追平了美国的研发进度-5。到1986年,日本存储器产品的全球市占率飙升到65%,美国则跌到30%-5。
这时候三星开始玩“逆周期投资”的狠招。在行业低迷期,他们反而大举扩张产能-5。1986年底,三星半导体累积亏损了3亿美元,股权资本都亏光了-5。
关键时刻,韩国政府出手输血3.5亿美元,还帮他们拉来20亿美元私募-5。加上日本半导体被美国打压,以及PC电脑开始热销,三星硬是挺过了寒冬,实现了翻盘-5。
如今的DRAM市场已经分化成三大门派:DDR、LPDDR和GDDR-2。
DDR是桌面和服务器领域的“老大哥”,现在已经进化到第五代,正在向DDR6进军-2。DDR5的理论速率已经达到6400Mbps,而正在开发的DDR6预计速度还要翻倍-2。
LPDDR是移动端的“节能高手”,专门为手机、平板这些对功耗敏感的设备设计-2。最新的LPDDR5X在各项应用中的功耗比前代降低了20%到30%-2。
GDDR则是显卡的“性能怪兽”,专门伺候GPU-2。最新的GDDR7拥有破纪录的1.5TBps带宽,比GDDR6高出40%-2。不过它的成本也高,以前主要用在显卡上,现在随着AI火热,也开始进军服务器市场了-2。
DRAM的基本架构一直是1晶体管1电容(1T1C),但随着制程进步,这个经典结构遇到了麻烦-10。
电容需要保持足够的电容量来存储电荷,但随着制程微缩,电容面积越来越小。工程师们不得不把电容做成高耸的圆柱体,利用垂直空间来增加面积-10。
问题是圆柱越高,底部的蚀刻难度就越大。现在圆柱的宽高比已经达到1:50,再高就难办了-10。而且高耸的结构容易带来新的电性问题。
晶体管那边也不省心。DRAM晶体管最怕漏电,因为漏电会导致电容上存储的电荷流失-10。制程微缩让晶体管的通道变短,栅极对电流的控制能力减弱,这就是所谓的“短通道效应”-10。
为了解决这些问题,工程师们想出了各种奇葩结构:凹槽式通道阵列晶体管、鞍鳍晶体管、埋栅晶体管......-10听起来就像是在设计微型水族馆。
经过几十年腥风血雨的竞争,全球DRAM市场从几十家厂商淘汰到只剩三大巨头:三星、SK海力士和美光-5。这三家公司控制了全球约94%的市场份额-5。
这个行业有个“赚一亏二”的魔咒,赚钱一年,接着就要亏两年-5。想要在这样的行业生存,必须有雄厚的资本和超强的抗压能力。
美光的故事特别有意思,它是在爱达荷州一家牙科诊所的地下室创立的-5。创始人之一布莱恩·雪莉后来回忆说,美光成功的关键是让设计师、产品工程师和生产人员坐在一起,快速发现并解决问题-8。
当年三星的李健熙还曾亲自跑到台湾,劝台湾别搞DRAM了-7。他告诉当时的工研院副院长史钦泰:“台湾做不过我们,我们口袋深,技术好,我说了算。”-7
但台湾还是坚持了下来,最终通过工研院的次微米计划,成立了世界先进公司-7。
随着AI爆发,DRAM家族又添新成员——HBM(高带宽内存)。这东西能把多颗DRAM芯片像叠汉堡一样堆起来,带宽直接起飞-3。
HBM之父金俊昊预言,未来AI的瓶颈不是算力,而是存储带宽-3。他说:“算力是肌肉,内存才是血管。没有足够血管,肌肉再大也供血不足。”-3
更猛的是HBF(高带宽闪存),这东西打算用3D NAND闪存颗粒堆1000层,容量做到128GB/颗,成本目标只有HBM的十分之一-3。
虽然速度比不上HBM,但对AI推理这种“一次读取、多次使用”的场景来说够用了-3。金俊昊打了个比方:“以后GPU不用等数据,数据自己排队进厨房。”-3
2025年8月,闪迪和SK海力士已经签了HBF合作备忘录,计划2027年量产-3。三星也在紧急跟进,启动了代号“Project X2”的HBF项目-3。
DRAM教父罗伯特·登纳德于2024年4月23日逝世,享年91岁-1。他留给世界的不仅是一项发明,更是一套创新思维:在别人沿着老路走时,敢于寻找全新路径。
如今全球三分之二人口每天都在使用基于他发明的设备-9。这位被IBM称为“野鸭”的工程师-9,用一己之力改变了整个计算世界的面貌,让记忆以最经济的方式跟随人类进入数字时代。
网友“芯片小白”提问: 作为一个普通用户,我怎么直观地判断内存好坏?DDR4和DDR5实际用起来差别大吗?
哎呦,这个问题问得实在!咱们普通用户买内存,首先别看那些花里胡哨的散热片和RGB灯效,那都是“外观党”的玩意儿。真正要盯的是频率、时序和容量这三兄弟。
频率就像内存的“跑步速度”,DDR4一般在2666到3200MHz,DDR5则从4800MHz起步-2。时序呢,是内存的“反应时间”,通常用一组数字表示,比如CL16-18-18-38,数字越小反应越快。
实际使用中,如果你是打游戏,DDR4和DDR5的差别可能没那么明显,除非你用的是顶级显卡玩4K高刷游戏。但要是做视频剪辑、3D渲染或者大型数据处理,DDR5的带宽优势就显出来了,特别是配合新一代CPU时。
有个小秘密告诉你:高频不一定代表高性能,还要看时序。有时候3200MHz CL14的内存,实际表现可能比3600MHz CL18的要好。现在DDR5的时序普遍比DDR4高,这是技术架构决定的,但高频率弥补了这个缺点。
另外,如果你是AMD平台,要特别关注内存兼容性,AMD对内存比较挑剔。英特尔平台相对宽松一些。买的时候最好去主板官网查兼容列表,省得买回来点不亮。
网友“转行半导体”提问: 想转行进入半导体行业,特别是存储领域,应该重点学习哪些技能?这个行业未来发展如何?
哥们儿有眼光啊!半导体行业虽然周期性波动大,但长期绝对是个好赛道。特别是存储领域,现在AI火热,存储技术成了香饽饽。
要入行,得先打好基础。半导体物理、器件原理是根基,不懂这些就像开车不看路标。接着要熟悉制程工艺,特别是存储芯片独特的结构,比如DRAM的1T1C-10,NAND的浮栅结构。
现在行业最缺的是懂先进封装的人才。像HBM那种3D堆叠技术,要把多颗芯片像盖楼一样堆起来,中间用硅穿孔连通-3。这涉及热管理、信号完整性、机械应力分析等一系列问题。
软件方面,存储器控制器设计是个高端方向。怎么调度数据,怎么纠错,怎么延长存储器寿命,这里面的算法深得很。还有就是存储器测试,别看只是测试,良率提升就靠它了。
行业发展方面,存储芯片正从“通用型”向“专用型”转变。以前是一种内存打天下,现在要针对不同场景优化:AI服务器要高带宽,手机要低功耗,汽车要高可靠性-2。
未来几年,存算一体可能是下一个突破点,把存储和计算放在一起,减少数据搬运。还有新型存储器比如MRAM、PCRAM也在崛起,虽然目前规模不大,但潜力不小。
网友“科技观察者”提问: AI大模型对存储技术提出了哪些新要求?未来的存储技术路线会有哪些变革?
这位网友问到点子上了!AI大模型确实是存储技术的“压力测试器”。现在的万亿参数模型,光是权重数据就有几百GB,传统的存储架构根本扛不住-3。
第一需求是带宽。训练GPT-4需要21PB的内存带宽-3,推理时每个用户请求都要搬运几十GB数据。这就是为什么HBM这么火,它把带宽做到了传统GDDR的几倍-3。
第二是容量。大模型的参数越来越多,单靠HBM容量不够,成本也高。所以需要分层存储,热数据放HBM,温数据放HBF,冷数据放SSD-3。
第三是能效。AI数据中心电费吓死人,存储器也是耗电大户。未来存储技术必须在提升性能的同时降低功耗,比如用HKMG工艺降低漏电-2。
技术路线方面,我觉得会有几个变革:一是存储介质多元化,DRAM、NAND、新型存储器各司其职;二是封装技术3D化,从平面走向立体-3;三是存算一体化,减少数据搬运。
最有趣的是“内存即网络”的概念。未来AI芯片之间可能直接通过内存通信,不再经过传统网络设备。还有持久内存,断电数据不丢失,可以大幅提升系统恢复速度。
金俊昊教授预测2027年HBF将开始颠覆AI算力格局-3。到那时,AI服务器主板上可能看不到独立SSD了,全被集成进GPU基板-3。存储和计算的界限会越来越模糊,这就是技术演进的有趣之处。