GPUDirect Storage(GDS)旨在通过使用直接指向NVMe存储驱动器的IO绕过存储服务器/阵列控制器的主机操作系统及CPU/内存,从而加快读写访问速度。
目前,各供应商已经公布了自己的GDS性能,为客户提供了一种能够比较其优劣的方法:
我们整理了过去几年总计十家供应商发布的结果,具体如上图所示。随着AI市场的发展成熟,训练和推理类工作负载之间也出现了应用差异。除了RAG和向量搜索的兴起之外,市场上还出现了AI数据管线的概念。当今AI存储必须能够支撑整条管线中的各个阶段,特别是满足推理和训练负载对于数据访问的需求。
考虑到这一点,英伟达最顶尖的GPU服务器DGX SuperPOD列出了经过认证的存储供应商。要想入围这份名单,供应商们要做的已经不仅仅是将数据调整传输至GPU。传输带宽虽然非常重要,但已经不是唯一关键的指标。据我们了解,想要从单一节点层级衡量GPUDIrect性能并不靠谱,正确的方法应该更加全面,即考量能否具备一定的性能水平让SuperPOD保持高负荷运转,同时满足英伟达提出的延迟标准、持续性能水平、支持数千张GPU的可扩展性、大规模AI数据集处理以及系统与软件兼容性要求。
这里强调的性能,已经不单单指GDS带宽。可扩展性同样至关重要。Pure Storage公司高级总监Hari Kannan在采访中表示,“我们正在推进英伟达SuperPOD认证,而且认证内容主要集中在性能层面。毕竟这也是SuperPOD的意义所在——必须保证在极高规模下仍拥有出色的性能表现。为此,我们必须与英伟达分享自己的性能基准。他们也开展了自己的性能测试,以验证其是否符合他们提出的SuperPOD基准。”不过具体基准内容尚未公开。
目前已经有四家SuperPOD存储供应商通过了认证,分别为:DDN及其A³I A1400X2T Lustre阵列;IBM及其Storage Scale System 6000、NetApp及其运行BeeGFS的EF600,以及VAST Data及其Data Platform数据平台。这四家供应商均提供并行文件系统访问能力。
上图所示,为IBM获得的英伟达SuperPOD认证函。可以看到其中单个SSS6000的读取速度就高达340 GB/秒,写入速度则高达175 GB/秒。
计划支持SuperPOD的存储供应商还包括戴尔的PowerScale、Pure Storage以及WEKA的WEKApod。
戴尔正着手在Lightning项目当中为其PowerScale OneFS操作系统添加并行文件系统支持。这也许有助于其满足SuperPOD提出的性能与可扩展性要求。
据我们了解,Hitachi Vantara的VSP One存储已经获得了BasePOD认证,下一步希望通过SuperPOD认证。我们也就SuperPOD认证一事询问了NetApp及其ONTAP AFF阵列,并将在得到回复后向大家报告。
MinIO公司表示,其开源DataPOD对象存储方案能够扩展以支持任意数量的GPU服务器。但据我们了解,该公司并不打算通过SuperPOD认证。此项认证主要面向文件系统存储,即使底层基于对象存储,也至少需要在应用层表现为文件系统的形式。
SuperPOD存储认证更像是一种衡量是否合格的兼容性测试,而非能够量化的基准测试。而从英伟达的市场利益的角度出发,最好是能有更多存储供应商顺利通过SuperPOD数据访问认证。如此一来,客户就不必比对公开发布的SuperPOD性能基准测试,再从中选取速度最快的存储供应商。总之,这种不公开SuperPOD存储性能数据、而单纯以是否通过认证来衡量的方式,更有利于英伟达团结更多合作厂商。
好文章,需要你的鼓励
本文探讨了达成人工通用智能(AGI)七大路线中的线性进阶路径,预测了从2025年至2040年 AI 技术与社会效应的关键年度节点。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。
MASKSEARCH是阿里巴巴集团同义实验室开发的新型预训练框架,通过创新的"检索增强掩码预测"任务,训练大型语言模型像人类一样主动使用搜索工具获取信息。这项框架包含两个阶段:首先在掩码预测任务上预训练,然后在下游任务上微调,大幅提升模型在开放域问答中的表现。研究采用监督微调和强化学习两种方法,结合多代理系统和课程学习策略,使AI能够自主分解问题、使用搜索工具并基于搜索结果进行推理。