全新Microsoft Azure NDv2超大型实例可扩展至数百个互联的NVIDIA Tensor Core GPU,满足复杂的AI和高性能计算应用需求
NVIDIA于今日发布在Microsoft Azure云上的一种新型GPU加速超级计算机。
此次发布的全新NDv2实例是Azure上规模最大的一次部署,该产品专为处理要求苛刻的AI和高性能计算应用而设计,是全球速度最快的超级计算机之一。它能在一个Mellanox InfiniBand后端网络上提供多达800个互联的NVIDIA V100 Tensor Core GPU。这是首次用户可以根据需求,在自己的桌面上租用整台AI超级计算机,而且其性能与那些需要数个月时间才能完成部署的大型本地超级计算机相匹配。
NVIDIA副总裁兼加速计算总经理Ian Buck表示:“此前,只有一些全球性的大型企业和机构才能使用超级计算机进行AI和高性能计算。而这款在Microsoft Azure上推出的新产品实现了AI的大众化,使更多人能够获得基础工具,来解决一些全球最大的挑战。”
微软Azure Compute企业副总裁Girish Bablani补充说:“由于云计算在全球各地呈现增长趋势,客户正在寻求更高性能的服务。此次微软与NVIDIA的合作,能够让用户即时获取超级计算能力,这在以前是无法想象的。可以说,我们开创了一个创新的新时代。”
这款新产品十分适用于复杂的AI、机器学习和高性能计算工作负载。相比基于CPU的传统计算,它具有显著的性能和成本优势。对于需要快速解决方案的AI研究人员来说,它可以快速启动多个NDv2实例,并在短短几小时内完成复杂的会话式AI模型的训练。
此前,微软和NVIDIA的工程师已在该集群的预览版本上使用64个NDv2实例进行了实验。他们用了约三小时完成了BERT会话式AI模型的训练。能够实现这一速度的原因之一是使用了NCCL(一款NVIDIA CUDA X库)提供的多GPU优化以及高速Mellanox互联解决方案。
另一个优点是客户可以使用多个NDv2实例运行复杂的高性能计算工作负载,比如LAMMPS,这是一种流行的分子动力学应用程序,用于在药物开发和探索等领域中模拟原子级物质。相比于一个专用于特定应用程序(如深度学习)的、未使用GPU的 HPC计算节点,单个NDv2实例就能实现高达一个数量级的速度提升。如果需要进行大规模的模拟,还可以将这一性能线性扩展至一百个实例。
所有NDv2实例都能够受益于NVIDIA NGC容器注册表和Azure Marketplace中所提供的TensorFlow、PyTorch和MXNet等GPU优化高性能计算应用、机器学习软件及深度学习框架。该注册表还提供Helm图表,让用户在Kubernetes集群上可以轻松地部署AI软件。
NDv2目前已推出预览版本。一个实例中包含8个NVIDIA V100 GPU,可组成集群,根据不同的工作负载需求进行扩展。
好文章,需要你的鼓励
微软研究院联合北京大学、清华大学提出"强化预训练"新方法,让AI在预测下一个词前先进行深度思考推理。该技术将传统的模式匹配升级为真正的逻辑推理,显著提升了语言模型的预测准确性和推理能力,为人工智能从"背诵"向"理解"的转变开辟了新路径。
上海交通大学与StepFun联合推出的OneIG-Bench是AI图像生成领域首个全维度评测基准,涵盖语义对齐、文字渲染、知识推理、风格化、多语言等六大维度,包含超过2400个测试案例。该研究对19个顶级AI模型进行了史上最全面的对比评测,发现GPT-4o综合表现最佳,Seedream 3.0在文字渲染方面独领风骚,揭示了当前AI模型的优势与不足,为未来技术发展指明了方向。
伊利诺伊大学研究团队开发了SAFFRON安全防护系统,通过创新的"多路分叉奖励模型"技术,让AI在面对恶意诱导攻击时能够实时进行安全筛选。该系统将AI安全防护的攻击成功率从89.7%降至40.9%,同时保持回复的自然性和多样性,为AI安全领域开辟了全新的"推理时计算"防护路径。
上海人工智能实验室等机构联合发布的最新研究,开发出能够像人类专家一样"阅读"化学分子图像的AI系统GTR-Mol-VLM。该系统采用模仿人类思维的"图遍历视觉思维链"方法,在处理含缩写的复杂分子图像时准确率达84.50%,比现有最佳方法高出约14个百分点,为药物研发和材料科学等领域的数字化转型提供了重要技术支撑。