NVIDIA合作伙伴提供经验证的可扩展型AI系统。
大多数数据中心在设计的时候都未曾考虑到人工智能的爆炸性增长和独特需求。
但NVIDIA DGX POD为每个想要优化其计算、存储和网络基础设施的数据中心架构师提供了发展蓝图,以应对AI融合型应用的增长浪潮。
包括Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage等在内的业内数据中心领导者已围绕DGX POD,推出了基于其各自特有技术的相关产品。
机器学习和深度学习曾经仅是学术实验室里的科学项目。而如今它们已成为主流功能,帮助企业实现降本增效。
但提升投资回报意味着需要具有扩展性的AI-ready数据中心。许多机构之所以无法做到,原因很简单,就是因为AI工作负载消耗的资源之大是其他重要任务无法相比的。
SATURNV是NVIDIA基于NVIDIA DGX系统构建的一台大型基础设施,我们基于此设施执行了一些最重要、最具突破性的工作。实际上,我们最近借助一套基于NVIDIA DGX-2的配置在MLPerf基准测试中创下了六项AI性能记录。这套系统是我们使用SATURNV所遵循的设计原则和架构,在短短三周内就打造而成的。
Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp和Pure Storage都基于NVIDIA DGX,提供了统包型基础设施解决方案。这些集成系统为客户提供了经验证的方法,能够配合其数据中心技术合作伙伴使用。当然,每个企业都能够建立自己的SATURNV,以满足各自的需求。
本周在GTC期间,我们的生态系统合作伙伴都发布了有关DGX POD的重大新闻:
建立在DGX POD之上是实现大规模AI的重要因素。对于那些没有数据中心或资本支出的人来说,现在有一个好消息能使其快速实现。越来越多的数据中心托管服务提供商很清楚如何协助您从计划走向投产。
他们每个都经过认证,具备托管DGX基础设施的能力。他们可通过一个极具吸引力的外包运营支出模型来运行基于DGX POD构建的AI基础架构,消除设施和资本预算之间的鸿沟。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。