去年还能轻松买到的内存条,今年价格直接翻倍还一货难求。电脑城的小老板叼着烟,看着空荡荡的柜台直摇头:“这行情,干了二十年没见过。”
“咋回事?”每个想装电脑的普通人都皱起了眉头。

这不是简单的市场波动,而是整个DRAM business正在经历一场颠覆性的重塑。一场由AI引发的“饥饿游戏”,把曾经不起眼的存储芯片推向了风口浪尖。

价格涨得太凶了,凶得有点让人看不懂。办公室的小李想给公司服务器升级内存,一问价格直接懵了——256GB的DDR5服务器内存条报价已经冲破5万元一条,部分型号甚至逼近6万元大关-1。
这价格比起2024年同期,涨幅超过了500%。
不只是服务器内存,所有的存储芯片都在疯涨。市场调研机构TrendForce的数据显示,2026年第一季度DRAM合约价比上季度还要再涨55%到60%,NAND闪存也要涨33%到38%-1-6。
如果你觉得这只是短期波动,那就错了。这种涨势已经持续了半年,DRAM价格在半年内平均涨幅超过一倍-6。更可怕的是,慧荣科技总经理苟嘉章预测说,这场缺货2027年下半年才可能看到转机-9。
啥概念?意味着接下来一年多时间,存储芯片都得过着“有啥用啥,别挑别拣”的日子。
为啥突然就这么缺了?答案写在三个英文字母里:HBM(高带宽内存)。
搞AI训练的那些科技巨头们——谷歌、Meta、微软、亚马逊——现在个个都是“内存大胃王”。一台AI服务器需要的内存是传统服务器的8到10倍-1。
这些公司明年光在AI基础设施上的投资就高达6000亿美元-1,像无底洞一样吞食着高性能存储芯片。
HBM市场在短短几年内迅速膨胀,有研究机构预测其规模将从2024年的170亿美元暴增至2030年的980亿美元-2。技术迭代快得让人眼花,HBM3E还没普及,HBM4已经准备登场了-2。
三星、SK海力士、美光这三巨头现在的心思全在这上面。为啥?利润高呗。市场传言,他们现在定价的底线是毛利率不能低于60%,这个利润率甚至超过了台积电-10。
传统DRAM生产线正被改造成HBM产线,有限的产能被优先分配给利润最高的产品。
在这场游戏里,赢家和输家的界限变得异常清晰。大型云端服务商和三大存储原厂是最大的受益者-9。
这些巨头手里握着长期供货协议,价格涨了照样能拿到货。而中小模组厂、低端设备制造商可就惨了,采购量小、议价能力弱,现在正面临着抢不到料、成本暴增的窘境-9。
这种洗牌不是暂时的。摩根大通的分析师们认为,整个DRAM business已经进入了一个“前所未有的四年定价上行周期”,这个周期将从2024年持续到2027年-8。
他们预测,到2027年,仅AI相关应用就将占据DRAM市场总体有效市场的53%-8。
这不只是换个买家那么简单,而是整个市场游戏规则的改变。以前DRAM是价格敏感的普通零部件,现在成了决定AI运算性能的关键资源-10。
面对这种局面,国内存储产业链也在加速追赶。长鑫存储今年在科创板IPO募资了295亿元,计划到2027年完成3座12英寸晶圆厂的设备导入-1。
他们的DDR5和LPDDR5X产品已经能够覆盖主流市场了。
长江存储的192层3D NAND已经量产,计划在2026年将月产能提升到20万片-1。而在材料和设备端,江丰电子的超高纯溅射靶材已经进入韩国基地建设阶段-1。
这条路不好走。HBM研发需要突破TSV(硅通孔)和混合键合技术,目前国内与国际领先水平仍有一到两代的差距-1。
但必须得走,因为存储芯片的自主可控,在如今的地缘政治环境下,变得前所未有地重要。
存储行业一直有着鲜明的周期特性,大约每三四年就会出现一次价格暴涨、厂商扩产、然后产能过剩价格崩跌的循环-4。
但这次,好像不一样了。行业内部开始讨论一个新的概念——“准超级循环”-4。
传统周期被打破了,新周期的持续时间可能长达五到十年,甚至有人预测可能延续二十年以上-4。
驱动力在于,AI的需求是结构性的、持续性的,它不像手机或电脑的需求会饱和。随着AI应用从云端向边缘端扩散,从训练向推理延伸,对存储的需求只会越来越大、越来越多样化。
DDR5迭代技术的推进,HBM规格向HBM4、HBM5的发展,都让技术门槛和研发成本急剧提升-4。厂家不敢轻易扩产,因为投下去的都是几十亿的真金白银。
电脑城小老板的烟快抽完了,他叹了口气:“这生意,越来越像在刀尖上跳舞。” 库存压力小的时候怕没生意,真来了大需求又抢不到货。
对于整个DRAM business来说,传统上由PC和智能手机主导的需求结构正在被彻底颠覆。无论你是个普通的消费者,还是行业内的从业者,都已经被卷入了这场由AI掀起的存储芯片革命中。
这场“饥饿游戏”没有简单的胜负,只有持续的调整和适应。当内存条从电脑配件变成AI计算的关键资源,所有人都在学着重新认识这个曾经低调的行业。
老王正准备给孩子装台学习电脑,看到内存价格这么高,心里直打鼓。这种情况确实让普通消费者很为难。
从当前市场来看,DDR5内存的价格涨幅尤其明显-1。如果你装机的需求不是特别紧急,可以考虑几个折中方案。
一是降低容量预期。如果原本计划装32GB,或许16GB也能满足大部分学习、办公需求,等价格回落后再升级。二是考虑上一代产品,现在DDR4内存的涨幅相对较小-1,对于不是追求极致性能的用户来说,仍然是不错的选择。
买的时候可以多比价,不同品牌、不同渠道的价格可能会有差异。也可以关注一些促销节点,虽然整体价格高企,但厂商或零售商偶尔还是会有促销活动。
长远来看,有分析认为消费级存储的供应紧张可能会持续一段时间,因为HBM产能挤占了传统消费级DRAM的产能-1。
所以你如果现在装机,可能需要调整一下“一步到位”的心态,采用“先满足基本需求,后续再升级”的策略会更明智。
手机品牌现在确实面临着两难选择。AI手机对内存的要求越来越高,有报告甚至指出,20GB内存最终将成为支持AI功能的主流配置-5。
但现在存储芯片短缺,原本可能配备12GB内存的中端手机,可能会被限制在6GB到8GB-5。
国产手机品牌可能会采取几种策略应对。一是优化系统,让手机在内存容量减少的情况下也能更好地运行,就像苹果对iOS的优化那样-5。
实际上已经有消息称,制造商可能会联合向谷歌施压,促使其优化安卓平台,以适应内存容量减少的情况-5。
二是探索新的技术路径。比如有传言称三星正在开发一种专为生成式AI优化的特殊UFS存储格式-5。
产品线调整也是一个可能的方向。部分机型可能会先推出“AI功能简化版”,或者将大内存配置集中在高端机型上。
对于消费者来说,这意味着未来买手机时可能需要更仔细地查看配置,特别是内存容量,它可能直接影响到手机AI功能的完整性和使用体验。
这确实是个关键问题。存储芯片价格上涨和供应紧张,短期内肯定会推高AI发展的成本。
一台AI服务器的内存需求是传统服务器的8-10倍-1,这意味着建设AI基础设施的成本会大幅增加。对于创业公司或中小型AI企业来说,这可能成为一道门槛。
但长远来看,可能会加速AI技术的多元化发展。
一方面,高成本会促使企业更高效地利用存储资源,推动算法优化和模型压缩技术的发展。比如苹果就在研究如何将大型语言模型存储在闪存而非内存中-5。
另一方面,这也可能催生新的计算架构。当前的计算架构高度依赖内存带宽,如果内存成为瓶颈,业界可能会探索更高效的计算方式,或是发展专用AI芯片,减少对通用内存的依赖。
存储紧张还可能改变AI应用的部署方式。企业可能会更倾向于采用云端AI服务,而非自建基础设施;或者更多采用边缘计算,将部分计算任务分配到终端设备上。
整个DRAM business的这场变革,本质上反映了AI发展对计算基础设施的根本性改变。它不仅是价格问题,更是整个技术生态的重新调整。