一块看似普通的固态硬盘,被插入服务器后竟让可用内存瞬间飙升数倍,背后是西部数据用DRAM技术捅破了数据中心成本与性能的天花板。
西部数据用DRAM打造的Ultrastar DC ME200内存扩展驱动器,在NVMe U.2或PCI Express附加卡的外观下,塞进了DRAM内存芯片,而非传统NAND闪存-3-7。

这个看似简单的“换芯”操作,让它在双路1U服务器中最高可实现24TB的存储容量-3。

在现代数据中心,内存的配置和成本成为了制约业务发展的瓶颈。传统的DRAM内存价格昂贵,而服务器中能安装的内存条数量又受到物理限制。
企业面对海量数据处理需求时,常常陷入两难:要么承受高昂的内存扩容成本,要么忍受性能瓶颈带来的业务延迟。
这种情况在运行内存数据库应用程序时尤为突出。像Apache Spark、Memcached和Redis这些应用,对内存的需求几乎是“贪得无厌”的。
西部数据创新的Ultrastar DC ME200内存扩展驱动器,突破了传统存储架构的边界。这款产品采用标准的U.2或PCI-E半高半长扩展卡样式,支持PCI-E 3.0 x4和NVMe协议-3。
关键在于它的内部结构,不是传统的NAND闪存芯片,而是DRAM内存芯片,容量范围从1TB到4TB-3。
西部数据公司企业级固态硬盘产品管理高级总监Eddie Ramirez解释说,该驱动器软件“就像裸机虚拟机管理程序”,能够虚拟化NVMe闪存作为内存使用-7。
这种设计让系统能够在减少传统内存配置的情况下获得更大的内存容量,同时显著降低总体拥有成本(TCO)-3。
西数ME200的核心原理是在服务器BIOS和操作系统之间安装一个智能层,将固态存储映射到字节可寻址的服务器内存空间-7。
这个智能层包含预取算法,能够分析数据访问模式,提前将可能用到的数据从SSD预取到内存中,从而减少缓存未命中率-7。
Ramirez进一步指出:“我们不会取代系统中所有DRAM,该软件可充当内存管理单元,以确保我们有效地将数据从SSD预取到DRAM空间。”-7
ME200与传统内存配合工作,形成了一个层次化的存储体系,让热数据在DRAM中快速访问,而温数据则通过ME200高效管理。
在西数DRAM技术布局中,存储解决方案被组织成一个清晰的五层“存储金字塔”-1。在这个分层架构中,DRAM和高性能SSD共同处于金字塔的顶端,负责满足极热存储和热存储的需求-1。
DRAM因其极高的访问速度,在金字塔中承担着最热数据的处理任务,这些数据通常是需要被CPU频繁访问的关键业务信息-1。
西数DRAM相关技术的创新,不仅体现在硬件产品上,也反映在对存储架构的深刻理解中。
这种分层存储策略使得数据能够根据其访问频率和重要性被智能地分配到合适的存储介质中,从而实现性能与成本的最佳平衡-1。
西数ME200的经济价值体现在显著的TCO降低上。据西数提供的数据,一台原本配置1.5TB内存的传统服务器,采用ME200技术后可将内存提升到2TB,并将成本降低25%-3。
如果保持成本不变,内存容量甚至可以翻倍到3TB-3。这种性价比的提升对数据中心运营商来说意义重大。
虽然ME200的性能略低于传统DRAM,但这种折中是值得的。
例如,192GB内存配合576GB ME200的组合,相比于单纯的768GB内存,性能损失仅为7%-3。这种微小的性能差距,在大多数实际应用场景中几乎无法察觉,却能带来显著的成本节约。
ME200的可靠性表现同样令人印象深刻。得益于DRAM颗粒的使用,其可靠性远高于传统NAND SSD-3。
写入寿命达到PWB(Petabyte Written)级别,4TB版本可以终身写入78PBW(78000TBW)的数据-3。
换算下来,西数DRAM扩展驱动器每天可承受接近18次全盘写入的操作强度,这一指标对于需要高耐久性的企业应用环境至关重要-3。
产品提供三年质保,进一步增强了企业用户的信心-3。
西部数据在存储技术领域的探索不止于此。公司与SK海力士合作开发高频宽闪存(HBF)技术,旨在提供与高频宽存储器(HBM)相当的数据传输带宽-4。
HBF技术在相近成本下能实现高达8至16倍的存储容量,特别针对数据中心、企业级应用以及边缘计算环境中的AI推理任务-4。
西数DRAM相关的创新也包括对非易失性存储器的研究,如MRAM(磁阻随机存取存储器)、PCM(相变存储器)和ReRAM(电阻随机存取存储器)等新型存储技术-2。
这些技术的共同目标是缩小DRAM和NAND之间巨大的延迟差距,创造出更高效的“存储类内存”-2。
DRAM芯片的基本单元由一个电容和一个晶体管组成,通过电容内存储电荷的多寡来表示二进制数据-10。正是这种简单而高效的设计,使得像西数ME200这样的创新产品能够以相对较低的成本提供大容量存储解决方案,同时保持了令人满意的性能表现。
技术顾问拉贾·科杜里指出,未来的存储技术需要同时满足“成本、容量和性能的三重挑战”-4。而西部数据的探索,似乎正在为这一挑战提供新的可能。
网友提问1: 西数这个ME200内存扩展盘,和我直接加内存条有什么区别?它怎么做到让系统认为它是内存的?
回答: 这是个很实际的问题!简单说,直接加内存条是“真扩容”,ME200是“巧扩容”,各有各的妙处。
你加内存条,系统确实获得了实实在在的DRAM物理容量,但缺点也很明显:贵,而且有物理上限——主板上就那么多插槽。ME200的做法更像是一个“存储搬运工”,它内部确实是DRAM芯片,但它通过PCIe通道与CPU通信,速度比直接插在内存通道上慢一点-3。
它的核心技术在于那个“裸机虚拟机管理程序”软件-7。你可以把它理解成一个非常底层的、聪明的“调度员”。这个调度员坐在操作系统和硬件之间,时刻监视着CPU要访问哪些数据。
当它发现某些数据存在ME200盘里,但即将被频繁使用时,就提前把这些数据“搬”到真正的物理内存里;反之,把暂时不用的数据从物理内存“挪”到ME200里。这个过程非常快,对操作系统来说,它看到的始终是一个比物理内存大得多的、连续的“内存空间”,所以它“认为”自己拥有超大内存。
这就好比你家厨房(物理内存)很小,但你在后院(ME200)搭了个仓库。你请了个超级高效的管家(那个软件),他总能在你需要某样食材前,就从仓库拿到厨房台面上。对你(操作系统)而言,你感觉所有食材都触手可及,根本感觉不到仓库的存在。优势就是用较低的成本,获得了类似大内存的体验,特别适合那些数据量巨大、但只有一部分是“热点”的应用-7。
网友提问2: 文章说性能有损失,这个损失在实际用起来感觉明显吗?比如跑数据库或者搞机器学习会有多大影响?
回答: 感觉是否明显,完全取决于你的应用对延迟有多敏感。西数自己给出的数据是,在192GB物理内存+576GB ME200的配置下,相比768GB纯物理内存,性能损失大约是7%-3。
7%这个数字,对很多应用场景来说,几乎可以忽略不计。比如运行一个大型的MySQL数据库,或者处理Web服务器的缓存(Memcached/Redis),这些场景的瓶颈往往在于是否有足够的内存来容纳工作数据集,避免频繁地去慢速的硬盘(哪怕是SSD)里读取数据。
ME200解决了“装得下”这个核心痛点,7%的速度代价换来了容量翻倍的可能性,这笔账非常划算。
但是,如果你是做高频交易、实时物理模拟,或者机器学习中需要反复超高速读写海量参数模型的训练,每一纳秒的延迟都至关重要,那这7%的损失可能就是不可接受的。这时候,老老实实买天价的纯DRAM方案才是正道。
可以这样理解:ME200像是拓宽了一条普通高速公路(增加容量),但入口匝道稍微窄一点(PCIe通道延迟);而纯DRAM是直接修建了一条全程超宽赛道。对于大部分运输任务(普通数据处理),拓宽的高速公路效率提升巨大;但对于F1赛车(极限低延迟应用),只有专业赛道才行。你需要根据自己的“车型”和“任务”来选择。
网友提问3: 这东西听起来很美好,但它用的是DRAM,断电数据不就丢了吗?用它当内存,万一宕机岂不是全完了?
回答: 这个问题问到点子上了,也是很多人最大的疑惑!这里需要澄清一个关键概念:ME200的设计定位,是“内存扩展”,而不是“持久化存储”-7。
我们的电脑为什么需要内存?就是因为CPU处理速度太快,硬盘(包括SSD)太慢,需要内存这个“临时的、极快的工作台”来放正在处理和即将处理的数据。工作台上的东西,本来就不是为了永久保存的。断电后,工作台(内存)上的东西消失,这是正常且可接受的。你的论文、照片等需要永久保存的东西,本来就应该在工作完成后,从工作台(内存)保存到文件柜(硬盘)里。
ME200扮演的,就是一个“额外的工作台面”角色。系统把它的一部分空间虚拟成内存来用。存放在这部分“虚拟内存”里的数据,和放在物理内存里的数据一样,都是“临时工作数据”。断电丢失,是符合预期的行为,不是产品缺陷。
真正防止数据丢失的机制,在于应用软件和系统本身。例如,数据库系统会定期将已提交的事务从内存(包括ME200虚拟出来的部分)刷新到持久的硬盘日志中。所以,即使突然断电,重启后数据库也能从硬盘日志中恢复到最近的一致状态,不会因为内存数据丢失而“全完了”。
所以,不用担心断电问题,它的用法和传统内存一样。你需要担心的是持久化存储是否可靠,而那是硬盘(如西数的高性能SSD或HDD)的任务-1。