NVIDIA合作伙伴提供经验证的可扩展型AI系统。
大多数数据中心在设计的时候都未曾考虑到人工智能的爆炸性增长和独特需求。
但NVIDIA DGX POD为每个想要优化其计算、存储和网络基础设施的数据中心架构师提供了发展蓝图,以应对AI融合型应用的增长浪潮。
包括Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage等在内的业内数据中心领导者已围绕DGX POD,推出了基于其各自特有技术的相关产品。
机器学习和深度学习曾经仅是学术实验室里的科学项目。而如今它们已成为主流功能,帮助企业实现降本增效。
但提升投资回报意味着需要具有扩展性的AI-ready数据中心。许多机构之所以无法做到,原因很简单,就是因为AI工作负载消耗的资源之大是其他重要任务无法相比的。
SATURNV是NVIDIA基于NVIDIA DGX系统构建的一台大型基础设施,我们基于此设施执行了一些最重要、最具突破性的工作。实际上,我们最近借助一套基于NVIDIA DGX-2的配置在MLPerf基准测试中创下了六项AI性能记录。这套系统是我们使用SATURNV所遵循的设计原则和架构,在短短三周内就打造而成的。
Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage都基于NVIDIA DGX,提供了统包型基础设施解决方案。这些集成系统为客户提供了经验证的方法,能够配合其数据中心技术合作伙伴使用。当然,每个企业都能够建立自己的SATURNV,以满足各自的需求。
本周在GTC期间,我们的生态系统合作伙伴都发布了有关DGX POD的重大新闻:
建立在DGX POD之上是实现大规模AI的重要因素。对于那些没有数据中心或资本支出的人来说,现在有一个好消息能使其快速实现。越来越多的数据中心托管服务提供商很清楚如何协助您从计划走向投产。
他们每个都经过认证,具备托管DGX基础设施的能力。他们可通过一个极具吸引力的外包运营支出模型来运行基于DGX POD构建的AI基础架构,消除设施和资本预算之间的鸿沟。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。