在拉斯维加斯炫目的CES展台上,SK海力士首次亮出16层堆叠、容量高达48GB的HBM4芯片,展台前的人群中传来阵阵低语——这家韩国存储巨头刚刚终结了三星三十余年的统治。

今年初的CES 2026展会上,SK海力士的展馆没有采用常见的开放式设计,而是设立了专属客户展馆,集中展示面向AI的下一代存储器解决方案-4

他们首次亮相的16层48GB HBM4产品,是继12层36GB HBM4之后的后续版本-4。对于搞AI训练的企业来说,这款产品的出现简直像久旱逢甘霖。


01 行业洗牌

2025年存储行业发生了戏剧性变化。市调机构Counterpoint Research的报告显示,2025年第一季度,SK海力士以36%的营收市占率首次超越三星电子的34%,成为全球最大DRAM供应商-3

这个突破可不简单,它终结了三星长达30余年的行业主导地位-3。在存储芯片这个领域,三十年啊,差不多是半辈子那么长,三星一直坐在头把交椅上。

SK海力士的逆袭核心在于其对HBM市场的绝对掌控-3。什么是HBM?你可以把它理解为AI服务器的“血液系统”。

02 技术领先

作为AI服务器的“刚需”组件,HBM通过垂直堆叠技术实现了传统DRAM无法企及的带宽和能效-3。这东西成了支撑ChatGPT等大模型训练的关键硬件。

SK海力士在HBM市场的占有率高达70%,其最新推出的12层HBM3E芯片已独家供应英伟达最新一代AI加速器-3。2025年第一季度,HBM业务占SK海力士DRAM总销售额的40%以上,而且公司预计到2027年HBM需求将以82%的年复合增长率爆发式增长-3

技术层面,SK海力士在先进制程上的突破进一步巩固优势。基于1anm工艺的16GB DDR5 DRAM已实现量产,而全球首款12层HBM4芯片将于2026年投产-3

03 产品布局

在近期于美国圣路易斯举行的SC25超算大会上,SK海力士展出了六种不同规格的DDR5内存产品,全面覆盖从标准配置到高性能应用的需求-1-2

这里面有几款产品特别值得一提。比如他们的64GB DDR5 RDIMM,首次采用1cnm制程技术,是此前1anm与1bnm工艺的进一步演进-1

还有专为AI训练和推理任务优化的3DS DDR5 RDIMM,采用1bnm工艺与2-Hi垂直堆叠技术,单颗芯片容量达32Gb,单条可实现高达256GB的存储密度-1。这东西运行速率为8000Mbps,专为需要密集部署的服务器架构设计。

DDR5 Tall MRDIMM就更夸张了,它的物理尺寸明显高于传统内存条,可以容纳更多存储芯片-1。基于1bnm工艺,搭载32Gb单颗芯片,实现单条256GB容量,速率支持12800Mbps-1。这玩意儿专为2U高性能机架式服务器设计,能满足高密度与高吞吐并重的应用需求。

04 未来规划

SK海力士在2025年举办的AI峰会上展示了其长期技术路线规划,DDR6内存预计将在2029至2031年期间正式推出-7。同期还将发布GDDR7-Next显存以及支持PCIe 7.0接口的固态硬盘产品-7

根据规划,2026至2028年间,公司将推出16层堆叠结构的HBM4产品,并同步开发8层、12层和16层堆叠版本的HBM4E-7。还会提供定制化HBM4E方案以满足特定需求-7

在常规DRAM领域,他们将推进LPDDR6内存的量产;针对AI计算场景,则布局了LPDDR5X SOCAMM2、MRDIMM Gen2、LPDDR5R以及第二代CXL接口的LPDDR6-PIM等创新形态产品-7

你看,这家公司的海力士DRAM品牌战略很清晰——不是简单地做内存条,而是围绕AI计算的全栈布局。

05 市场影响

SK海力士此次超越不仅是自身的胜利,更是AI技术对半导体产业的一次“重构”-3。行业分析人士指出,这次逆袭绝非偶然,而是其过去十年持续投入HBM研发的“厚积薄发”-3

早在2013年HBM技术刚问世时,SK海力士就押注其未来潜力,通过混合键合等独家技术突破堆叠层数限制,最终在AI浪潮中实现了“技术代差”优势-3

从市场结构看,HBM在DRAM总需求中的占比正快速攀升,预计2025年将突破5%,2033年更将占据DRAM市场的“半壁江山”-3

对于普通消费者来说,可能觉得这些高端内存离自己很遥远。但实际上,技术进步最终会传导到消费级产品。当AI服务器的内存带宽和容量大幅提升后,我们手机上运行的AI应用也会变得更加智能和高效。


在SK海力士CES展台的“AI系统演示区”,技术人员正在演示一个有趣的场景:定制化HBM将原本由GPU承担的部分运算功能集成到了内存内部-4

随着海力士DRAM品牌持续引领AI内存创新,2030年的手机可能会配备今天服务器级别的HBM内存。未来已来的速度,可能比我们想象的更快。

网友提问与回答

网友“科技爱好者小明”提问:SK海力士的HBM内存听起来很厉害,但这对我们普通消费者有什么实际影响?我们手机和电脑会用上这种技术吗?

这是一个非常好的问题!HBM技术虽然目前主要应用在AI服务器和数据中心,但它的影响确实会逐步传导到消费级设备。首先,随着AI模型在云端训练效率的提高,我们使用的各种AI服务(如智能助手、图像生成、实时翻译)会变得更强大、响应更快。已经有消息称手机巨头正在考虑将HBM应用在手机上-9,当然这需要解决散热和能耗的挑战。技术的下放是行业规律,就像曾经的服务器技术最终进入个人电脑一样,HBM的相关技术(如高带宽、低功耗设计)未来很可能出现在高端笔记本电脑和下一代游戏主机中,提升本地AI处理能力。

网友“芯片行业观察者”提问:SK海力士这次超越三星,是永久性的还是暂时性的?三星和美光有没有可能很快反超?

从目前的技术和市场布局来看,SK海力士的领先地位在短期内很难被撼动。首先,他们在HBM技术上有明显的“代差”优势,HBM4量产进度领先竞争对手至少6个月-3。他们与英伟达等关键客户建立了稳固的独家供应关系-3。再者,公司已宣布2025年HBM产能售罄,且2026年订单已被提前锁定-3。当然,三星和美光正在全力追赶,三星已经开发了HBM4产品并在筹备样品生产-8,美光也已向客户交付HBM4样品-9存储行业竞争激烈,技术迭代快,长期来看竞争格局仍可能变化,但至少在未来2-3年内,SK海力士很可能保持领先。

网友“创业公司CTO”提问:我们是一家AI创业公司,正在构建训练平台。选择SK海力士的DDR5内存时,在64GB、96GB和256GB这些不同容量之间该如何权衡?主要考虑哪些因素?

对于AI创业公司来说,这个选择很关键!首先考虑工作负载特性:如果你的模型参数极大,训练数据量庞大,那么256GB的大容量模组能减少数据交换,提升训练效率-1。其次考虑服务器密度:2U服务器中,Tall MRDIMM的256GB模组能最大化利用有限空间-1。第三是成本与性能平衡:96GB的DDR5 RDIMM基于1bnm工艺,在维持8000Mbps速率的同时更具成本优势-1。最后考虑未来扩展性:选择支持CXL协议的平台可能比单纯追求单条容量更明智,因为它允许更灵活的内存扩展-7建议从实际工作负载测试入手,监控训练时的内存占用和带宽瓶颈,再做出最适合你们业务阶段的选择。