NVIDIA合作伙伴提供经验证的可扩展型AI系统。
大多数数据中心在设计的时候都未曾考虑到人工智能的爆炸性增长和独特需求。
但NVIDIA DGX POD为每个想要优化其计算、存储和网络基础设施的数据中心架构师提供了发展蓝图,以应对AI融合型应用的增长浪潮。
包括Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage等在内的业内数据中心领导者已围绕DGX POD,推出了基于其各自特有技术的相关产品。
机器学习和深度学习曾经仅是学术实验室里的科学项目。而如今它们已成为主流功能,帮助企业实现降本增效。
但提升投资回报意味着需要具有扩展性的AI-ready数据中心。许多机构之所以无法做到,原因很简单,就是因为AI工作负载消耗的资源之大是其他重要任务无法相比的。
SATURNV是NVIDIA基于NVIDIA DGX系统构建的一台大型基础设施,我们基于此设施执行了一些最重要、最具突破性的工作。实际上,我们最近借助一套基于NVIDIA DGX-2的配置在MLPerf基准测试中创下了六项AI性能记录。这套系统是我们使用SATURNV所遵循的设计原则和架构,在短短三周内就打造而成的。
Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage都基于NVIDIA DGX,提供了统包型基础设施解决方案。这些集成系统为客户提供了经验证的方法,能够配合其数据中心技术合作伙伴使用。当然,每个企业都能够建立自己的SATURNV,以满足各自的需求。
本周在GTC期间,我们的生态系统合作伙伴都发布了有关DGX POD的重大新闻:
建立在DGX POD之上是实现大规模AI的重要因素。对于那些没有数据中心或资本支出的人来说,现在有一个好消息能使其快速实现。越来越多的数据中心托管服务提供商很清楚如何协助您从计划走向投产。
他们每个都经过认证,具备托管DGX基础设施的能力。他们可通过一个极具吸引力的外包运营支出模型来运行基于DGX POD构建的AI基础架构,消除设施和资本预算之间的鸿沟。
好文章,需要你的鼓励
尽管市场上频繁出现所谓的自主代理 AI,但目前尚无统一定义,多数产品不过是 LLM 的简单包装,这让 CIO 在采购时面临风险与困惑。
最新研究发现,AI生成的代码常错误引用虚构依赖库,为供应链攻击提供契机,可能导致数据泄露、植入后门等恶意行为,严重威胁系统安全。
本文讨论了 IT 自动化过程中容易忽视的流程问题、数据质量、整合难题、成本误区以及 AI 融入后带来的监管与创新挑战。
构建云边端协同的多元化算力体系已成为企业实现大模型规模化落地的关键路径,Arm正助力从云到端的大模型部署与高效运行,满足企业对更高性能、更高能效以及更强本地处理能力的迫切需求。