哎,做芯片这行久了,真觉得DRAM像个娇贵的“大少爷”。那些存储在微小电容里的电荷,稍微伺候不周,说没就没。咱平时总盯着带宽和容量,可有多少人真正关心过在芯片内部悄然流动、却又至关重要的DRAM 电流呢?这玩意儿,可是直接牵动着系统的功耗、稳定性和数据的老命啊!今天咱就唠点实在的,掰扯掰扯这电流里的门道。
你想啊,DRAM靠电容存电荷来记数据,可这电容它漏电啊,就像个有了沙眼的桶-2。为了不让数据丢,就得定时刷新,一遍遍往里补电荷。这个刷新操作,就是DRAM 电流的一个主要消耗大户。尤其是在高温下,电荷跑得更快,刷新就得更勤,电流消耗噌噌往上涨,设备发热也更厉害,简直是个恶性循环-2。更头疼的是“邻居干扰”,相邻单元存了不同数据,还会通过电场耦合互相“使坏”,影响彼此的电荷保持,让电流行为变得更复杂难料-2。

所以嘞,控制电流,首要就是对付漏电。传统硅晶体管的漏电路径不少,比如亚阈值漏电、栅极诱导漏极泄漏(GIDL)啥的-2。业内大佬们真是绞尽脑汁。你比方说铠侠(Kioxia)整出来的那个OCTRAM新技术,就挺绝。它不用硅,改用了一种叫氧化铟镓锌(IGZO)的氧化物半导体做晶体管-5-10。这材料的本事就是“开关”特性极好:打开时导通电流很高(超过15μA/单元),确保读写速度;关闭时那个截止电流低到吓人,小于1aA/单元(也就是10的负18次方安培),几乎可以忽略不计-5-10。你想,每个单元关断时漏电都这么微不足道,整颗芯片的待机功耗能不哗哗往下掉吗?这对那些需要常年待机的物联网设备来说,简直是福音。
除了从材料上釜底抽薪,电路设计上的巧思也能管住DRAM 电流的“野性”。早些年就有专利提出,给存储器位元配上受控电流源和专门的电流控制器,形成一个差分对结构-1。这思路有点像给水流装上个智能水龙头,不是简单粗暴地通或断,而是根据存储单元里的电压状态,精准控制流入位线的电流大小和时机。当检测到位线上的电压变化达到所需阈值时,这个“智能水龙头”能立刻关断电流,避免不必要的电力浪费-1。这样一来,不仅功耗降低了,由于电流受控、信号更干净,整个系统对噪声的敏感度也下降了,为实现更稳定的多比特存储(一个单元存多位数据)打下了基础-1。

说到多比特存储,这可是提升密度、降低平均功耗的大招。中科院微电子所之前就在2T0C(两个晶体管,无电容)结构的IGZO DRAM上取得了突破,通过优化材料工艺,让一个单元能稳定地区分出16个状态,实现了真正的4比特存储-4。你琢磨琢磨,同样大小的芯片面积,能存的信息量翻了好几倍,这不就相当于把活儿干得更“浓墨重彩”了吗?要实现这种多电平的精确读写,背后离不开对每个单元读取电流的极其精细的识别和控制。电流的些微差异就代表不同的数据值,这就要求单元特性必须高度均匀,电流信号窗口必须足够清晰、稳定-4。你看,这又一次印证了,管好电流,是通往下一代高性能、低功耗DRAM的必经之路。
所以说,别小看了DRAM里这些悄无声息的电流。它既是维系数据生命的“血液”,也是吞噬电池续航和产生热量的“元凶”。从材料创新如IGZO晶体管,到电路设计如智能电流控制,再到架构演进如多比特存储,工程师们所有“降本增效”的努力,本质上都是在与电流的规律博弈,在“性能”与“功耗”这根钢丝上寻找最佳平衡点。搞定了电流,就差不多搞定了DRAM的未来。
网友问题与回答
1. 网友“硬件小学徒”问: 大佬讲得太专业了!我就想问点实在的,这些关于电流控制的新技术(比如OCTRAM),我们普通消费者啥时候能用上?手机会不会因此更省电、发热更小?
答: 这位同学问得特别实在,是好问题!新技术从实验室走到咱们口袋里,确实需要时间,但路径已经很清晰了。像铠侠的OCTRAM这类基于氧化物半导体(如IGZO)的DRAM技术,目前正处于从技术验证向商业化推进的阶段-5-10。它最初的目标应用领域就明确包括了移动设备、物联网和后5G通信-10,因为这些场景对功耗极其敏感。
具体到手机,如果未来搭载此类DRAM,带来的好处是直接的:第一是续航延长。DRAM作为手机里的重要耗电部件,其待机(刷新)功耗大幅降低后,手机息屏时的电量“跑冒滴漏”会少很多。第二是发热减少。功耗降低直接意味着发热量减少,尤其在后台应用多、内存频繁刷新的场景下,体感会更明显。第三,还可能提升性能密度。像4F2结构比传统6F2密度更高-5,未来或许能在同样空间内堆叠更大内存,或者给其他部件腾出空间。
不过也要客观说,新技术面临量产成本、与传统硅工艺生态的整合等挑战。乐观估计,相关技术成果可能会在未来几年的旗舰手机或专用于低功耗的物联网芯片中率先得到应用。所以,可以期待,但需要一点耐心。
2. 网友“执着于温度”问: 文中一直提到高温是DRAM的大敌,除了让芯片更频繁刷新耗电,高温对电流和漏电的具体影响机制到底是啥?有没有简单易懂的解释?
答: “执着于温度”这网名起得应景!高温对DRAM确实是“全方位打击”,咱打个比方来说。你可以把DRAM存储单元里那个保存电荷的电容器,想象成一个正在漏水的桶,桶壁上有一些极其细微的缝隙(即漏电通道)。温度,在这里扮演了一个“兴奋剂”的角色。
首先,温度一高,电荷本身就更“活泼”。电容极板间绝缘层里的电子,会获得更高的能量,更容易“跳过”障碍(即增加热激发载流子),通过直接隧穿等方式泄漏掉-2。这就好比给桶里的水分子加了热,水分子运动加剧,更容易从缝隙里蹦出去。
高温会加剧晶体管的各种漏电。比如,关断状态的晶体管,其亚阈值漏电流会随温度呈指数级增长-6。这相当于控制水桶出水口的阀门(晶体管)在高温下老化变形,关不严实了,漏水更厉害。栅极诱导漏电(GIDL)等机制也会在高温下变得更显著-2。
所有这些漏电机制的加速,最终都体现为存储电荷的流失速度非线性地加快。为了保证数据在规定的保持时间内不丢,控制器就必须大幅缩短刷新间隔,更频繁地给所有单元“补电荷”。这个频繁的刷新操作,本身就会产生大量的动态电流,导致整体功耗和发热进一步上升,形成一个你提到的正反馈循环。所以说,散热对于高性能计算和长时间运行的设备至关重要,不然DRAM就会陷入“越热越刷,越刷越热”的窘境。
3. 网友“未来观察家”问: 最近AI这么火,对内存的要求好像也变了。像存内计算这种新架构,对DRAM电流特性会有全新的要求吗?未来的趋势是啥?
答: 这个问题非常前沿,戳到了下一代存储发展的核心。AI和存内计算确实在重塑对DRAM的要求,未来的趋势可以概括为 “精准、差异、可控” 。
传统的DRAM主要为读写服务,关心的是速度、容量和功耗。而存内计算旨在将计算单元嵌入内存阵列中,直接在数据存储的地方进行运算,以彻底打破“内存墙”-4。这对电流提出了新要求:第一,需要模拟态、多比特的精准电流信号。存内计算常利用存储器单元本身(如通过不同的导电状态)来存储和处理模拟权重。就像中科院微电子所展示的4比特DRAM,需要能稳定产生和识别出16种不同的电流水平,每种电流都代表一个数值-4。这对电流的一致性和信噪比要求极高,一点点的电流波动都会导致计算错误。
第二,可能需要容忍非均匀的电流访问模式。存内计算时,可能是对阵列中某一行、某一列进行并行模拟计算,电流活动模式与传统的逐行刷新、随机访问不同。这就要求电源网络和电流控制电路能适应这种局部、突发性的电流需求。
未来的趋势将是更智能的电流管理。例如,结合文中提到的智能电流控制器-1,为不同计算任务动态分配和调整电流供给;或者利用类似OCTRAM的超低漏电特性-10,在存内计算阵列的非活动区域实现近零功耗,只在计算单元精确供能。未来的DRAM电流控制,将从“粗放式全域管理”走向“精细化按需配送”,成为支撑AI计算的关键使能技术。