数据中心机房里,工程师老李看着眼前塞满硬盘的机架直摇头,电费单上的数字每月都在挑战他的血压上限。直到他看到美光最新发布的新闻,眉头才终于舒展开。
美光科技发布了基于其最新第九代3D NAND的三款SSD产品,像是给不同需求的数据中心工作负载量身定做的解决方案-1。

这次发布不是简单升级,而是一次从容量、速度到能耗效率的全面革新,直戳当下数据中心运营者的痛点。

现在的3D NAND技术,堆层数就像盖摩天大楼。美光这次把层数推到了276层,但这数字背后藏着更多门道-5。
单纯增加层数会遇到物理极限,就像楼盖太高地基会不稳。美光在第九代产品中引入了“Confined SN”技术,通过气隙绝缘和局部氮化膜设计,减少了相邻存储单元之间的干扰-2。
这一招不仅让存储密度比第八代提高了40%,还把编程时间缩短了10%,相邻单元间的耦合电容直接减半-2。对数据中心来说,这意味着同样空间能塞下更多数据,同时读写更迅速。
先说说这个“大胃王”6600 ION。这款产品专为数据饥渴型应用而生,美光科技发布3D NAND技术的最新成果在这款产品上体现得淋漓尽致-8。
它的最大亮点是惊人的存储密度,最高能提供122.88TB容量,预计2026年初还将推出245TB版本-1。一个装满这些硬盘的36U机架,就能提供高达88.5PB的存储容量,是传统硬盘的三倍密度-1。
能耗方面它也是个省电高手,峰值功率仅每块硬盘25瓦,每部署1EB数据相比传统硬盘设置可节省651兆瓦时的能耗-1。对那些被电费账单压得喘不过气的数据中心管理者来说,这简直是雪中送炭。
如果你需要的是快速反应能力,那么7600系列就是你的菜。美光科技发布3D NAND的这款产品针对AI工作负载中的数据转换和预处理环节进行了优化-1。
它采用第九代TLC NAND和PCIe Gen5接口,顺序读取速度高达12GB/s,写如速度高达7GB/s-1。随机读取吞吐量峰值可达210万IOPS-1。
最亮眼的是它的延迟表现,在99.999%的运行情况下,延迟低于0.999毫秒-1。在实时分析或AI推理场景中,这种可预测的低延迟意味着更快的决策和响应。
当其他硬盘还在Gen5时代徘徊时,9650已经迈入了PCIe Gen6的门槛。这是首款专为数据中心设计的PCIe Gen6 SSD,专为AI模型训练和实时推理而生-1。
它的速度简直离谱:顺序读取速度高达28GB/s,是Gen5 SSD的两倍;随机读取性能高达550万IOPS-1。在实际测试中,两块9650 SSD通过交换机向NVIDIA GPU传输数据,实现了56GB/s的持续传输速率-1。
这为下一代AI训练提供了可能,特别是处理大模型时,数据供给不再是瓶颈。美光科技发布3D NAND技术的这款旗舰产品,展现了存储如何成为AI加速的关键一环-8。
这三款产品放在一起,数据中心管理者可以开始打新算盘了。以前需要在容量、速度和成本之间做痛苦取舍,现在似乎有了更优解。
对于冷数据或温数据存储,6600 ION提供了前所未有的密度和能效;对于实时分析和AI推理,7600提供了可预测的低延迟;而对于高强度的AI训练,9650则打开了性能新天地-1。
更重要的是,这些产品都采用了美光自研的组件,从控制器、DRAM到固件和制造环节-1。这种垂直整合不仅优化了性能,也提高了可靠性。
当同行们还在为突破200层NAND技术而努力时,美光已经将层数推至276层,并开始规划下一代技术-2-5。
数据中心的机架越来越满,但美光的3D NAND技术让每个机架承载的已不再是简单的存储单元,而是AI时代的核心竞争力。存储的战争,已经从容量竞赛升级为智能效率的全面较量。
回答:这位朋友问到了点子上!美光这次276层NAND的技术确实有不少巧思。单纯堆层数会遇到物理极限,就像叠积木叠太高会不稳。美光在第九代产品中用了项叫“Confined SN”的技术,说白了就是在存储单元之间加了“气隙隔离”-2。
你可以把这想象成公寓楼里在相邻房间之间加了更厚的隔音墙,邻居之间干扰少了,各自工作就更高效。实际效果上,这项技术把编程时间缩短了10%,相邻单元间的信号干扰减少了一半左右-2。
关于功耗控制,美光在接口上也下了功夫。他们的NAND输入输出速度提升到了2.4GB/s,比前代快了50%-9。可能你会觉得速度越快不是越耗电吗?但这里有个效率问题,就像大货车运货比小货车多次往返更省油一样,一次传输更多数据实际上降低了单位数据能耗。
另外,美光还在研究晶圆键合技术,把存储单元阵列和外围电路分开制造再组合起来-2。这样做虽然增加了制造步骤,但能让两部分都优化得更好,长远看反而能提升能效比。
回答:老哥这个问题很实际啊!现在的3D NAND市场确实竞争白热化。美光这次的优势主要体现在几个方面:一是层数领先,276层目前是业内最高水平之一;二是产品线完整,三款产品覆盖了从大容量存储到高性能计算的不同场景-1-5。
与竞争对手相比,美光第九代NAND的存储密度达到35Gbit/平方毫米,比自己的第八代产品提高了40%-2。这种密度提升直接转化为容量优势,比如6600 ION能提供122.88TB的单盘容量,这对需要建大型数据湖的企业特别有吸引力-1。
值不值得马上升级,得看企业的具体需求。如果你在做AI训练,经常遇到数据供给跟不上GPU的情况,那么9650的PCIe Gen6接口和28GB/s的读取速度可能会带来立竿见影的效果-1。
如果主要是存储归档数据,电费占了大头,那么6600 ION的能效优势可能更重要,它能将每EB数据的能耗降低651兆瓦时-1。对于大多数企业,建议是从最痛点入手逐步升级,而不是一次性全部更换。
回答:搞大模型的同行你好!数据读取瓶颈我们太感同身受了。美光这次的产品确实在针对AI工作负载优化。最直接的提升来自9650,它的顺序读取速度达到28GB/s,是前代Gen5产品的两倍-1。
实际测试数据也有公布:两块9650 SSD通过Astera Labs的Scorpio Gen100交换机向NVIDIA H100 GPU传输数据,使用GPU直接存储技术实现了56GB/s的持续传输速率-1。这个数字意味着什么呢?基本上能满足多卡并行训练时的数据需求,不会让GPU等数据“饿肚子”。
除了速度,延迟也很关键。7600系列在99.999%的情况下延迟低于0.999毫秒-1。在AI推理场景中,这种可预测的低延迟意味着更稳定的服务质量。
对于大模型训练中的不同阶段,美光其实提供了分层方案:原始数据采集和存储可以用大容量的6600 ION;数据预处理和转换用低延迟的7600;最后的训练和推理则用高性能的9650-1。这样搭配起来,整个AI数据流水线会更顺畅。你们团队可以根据工作流程的不同阶段,选择最适合的存储产品,不必全部用最高端的,这样性价比会更优。