NetApp和Nvidia已经推出了一个组合式的AI参考架构系统,与Pure Storage和Nvidia 合作的AIRI系统相竞争。
这款系统主要针对深度学习,与FlexPod(思科和NetApp合作的融合基础设施)不同,这款系统没有品牌名称。而且与AIRI不同的是,它也没有自己的机箱封装。
NetApp和Nvidia技术白皮书《针对实际深度学习用例的可扩展AI基础设施设计》定义了一个针对NetApp A800全闪存存储阵列和Nvidia DGX-1 GPU服务器系统的参考架构(RA)。此外还有一个速度慢一些的,成本更低的、基于A700阵列的参考架构。
高配的参考架构支持单个A800阵列(高可用性配对配置),5个DGX-1 GPU服务器,连接2个思科Nexus 100GbitE交换机。速度较慢的A700全闪存阵列参考架构支持4个DGX-1和40GbitE。
A800系统通过100GbitE链路连接到DGX-1,支持RDMA作为集群互连。A800可横向扩展为24节点集群和74.8PB容量。
据说A800系统可实现25GB /秒的读取带宽和低于500微秒的延迟。
NetApp Nvidia DL参考架构配置图
Pure Storage和Nvidia的AIRI有一个FlashBlade阵列,支持4个DGX-1。FlashBlade阵列提供17GB /秒的速度,低于3毫秒的延迟。这与NetApp和Nvidia合作的参考架构系统相比似乎较慢,但A800是NetApp最快的全闪存阵列,而Pure的FlashBlade则更多地是一款容量优化型闪存阵列。
和Pure AIRI Mini一样,NetApp Nvidia DL RA可以从1个DGX-1起步,扩展到5个。 A800的原始容量通常为364.8TB,Pure的AIRI原始闪存容量为533TB。
AIRI RA配置图如下所示:
Pure Nvidia AIRI配置图
NetApp和Pure都对他们的这两个系统进行了基准测试,并且都包含Res-152和ResNet-50运行使用合成数据、NFS和64批量大小。
NetApp提供了图表和数据,而Pure只提供图表,所以对比起来有点困难。不过,我们可以通过将这些图表放在一起做个粗略的估计。
合成的总图表并不漂亮,不过确实提供了一些对比:
NetApp和Pure Resnet性能对比
至少从这些图表可以看出,NetApp Nvidia RA的性能优于AIRI,但让我们吃惊的是,由于NetApp/Nvidia DL系统与Pure AIRI系统相比具有更高的带宽和更低的延迟,分别是25GB/s的读取带宽和低于500微秒以下,后者分别17GB/s和低于3毫秒。
价格对比很好,但没有人透露给我们这方面的数据。我们猜测Nvidia可能会宣布更多深度学习方面的合作伙伴关系,就像NetApp和Pure这样的。HPE和IBM都是很明显的候选对象,还有像Apeiron、E8和Excelero等NVMe-oF这样的新兴阵列初创公司。
好文章,需要你的鼓励
DeepSeek 发布了新的大语言模型系列 R1,专为推理任务优化。该系列包括两个主要模型 R1 和 R1-Zero,采用混合专家架构,拥有 6710 亿参数。R1 在多项推理基准测试中超越了 OpenAI 的 o1 模型,而 R1-Zero 则代表了机器学习研究的重大进展。DeepSeek 已在 Hugging Face 上开源了这些模型的源代码。
国家机器人研究中心与 Freshwave 公司合作,利用私有 5G 网络测试农业机器人。这项合作旨在提升农业生产力,预计到 2026 年农业科技产业规模将达到 156 亿英镑。私有 5G 网络将为农业机器人提供高速、低延迟的连接,实现实时数据分析和精准农业操作,有望彻底改变农业生产方式。
Cognizant 推出了神经 AI 多代理加速器和服务套件,旨在帮助企业快速开发和部署 AI 代理。该技术通过预构建的代理网络模板和无代码框架,实现了跨职能的可扩展性和自主决策能力。这一创新有望推动 AI 代理在企业工作流程中的广泛应用,促进人机协作,提升业务效率和适应性。
西部数据公司财务总监Wissam Jabre将于2月28日辞职,恰逢公司分拆为硬盘和固态硬盘两个独立业务。公司正在寻找新的财务总监。尽管面临闪存业务定价环境更具挑战性,公司第二财季收入预计仍将达到43亿美元,同比增长42%。分析师认为硬盘业务表现强劲,可能抵消了闪存业务的部分疲软。