NVIDIA希望此举将有助于巩固目前已投入生产的新型Blackwell GPU系列,使其成为人工智能和高性能计算的标准。
在OCP全球峰会上的另一份声明中,Arm宣布与三星的Foundry、ADTechnology以及韩国船舶初创公司Rebellions合作开发针对云、高性能计算、AI/机器学习训练和推理的AI CPU芯片平台。
NVIDIA将与OCP共享的GB200 NVL72系统机电设计(如图)元素包括机架架构、计算和交换机托盘机械结构、液体冷却和热环境规格、以及NVLink电缆盒体积。NVLink是NVIDIA开发的高速互连技术,可以实现GPU之间的更快通信。
GB200 NVL72是一款液冷设备,配备了36个GB200加速器和72个Blackwell GPU。NVLink域将它们连接到一个单一的大型GPU,可以提供每秒130兆字节的低延迟通信。
专为AI打造
GB200 Grace Blackwell Super Chip将两个Blackwell Tensor Core GPU和一个NVIDIA Grace CPU连接起来。NVIDIA表示,这款机架级设备能够以比上一代H100 Tensor Core GPU快30倍的速度进行大型语言模型推理,并且能效提高25倍。
NVIDIA为OCP做出了十多年的贡献,包括在2022年提交了HGX H100基板设计,现在已经成为AI服务器的事实标准,以及在2023年捐赠了ConnectX-7适配器网络接口卡设计,现在已经成为OCP网络接口卡3.0的基础设计。
Spectrum-X是一个专为AI工作负载(尤其是在数据中心环境中)构建的以太网网络平台。它结合了NVIDIA Spectrum-4以太网交换机及其BlueField-3数据处理单元,可以实现低延迟、高吞吐量和高效的网络架构。NVIDIA表示,仍将致力于为客户提供Infiniband选项。
这一平台现在支持OCP的Switch Abstraction Interface和Software for Open Networking in the Cloud(SONiC)标准。其中,Switch Abstraction Interface对于网络操作系统与网络交换机硬件的交互方式实施了标准化。SONiC则是一个独立于硬件的网络软件层,面向云基础设施运营商、数据中心和网络管理员。
NVIDIA表示,客户可以使用Spectrum-X的自适应路由和基于遥测的拥塞控制功能来加速可扩展AI基础设施的以太网性能。OCP 3.0的ConnectX-8 SuperNIC网络接口卡将于明年上市,让企业组织能够构建更灵活的网络。
解决复杂性问题
NVIDIA数据中心GPU产品营销总监Shar Narasimhan表示:“在过去五年中,我们看到AI模型的复杂性增加了20000多倍,还使用了更丰富的、更大的数据集。”NVIDIA对此做出了回应,设计了一种系统可以将模型分片或分段到通过高速互连连接的GPU集群中,以便所有处理器都可以作为单个GPU运行。
在GB200 NVL72中,每个GPU都可以通过每秒1.8 TB的互连直接访问其他每个GPU,“这使得所有GPU都可以作为一个统一的GPU工作,”Narasimhan说。
以前,在HGX H200基板上,单个NVLink域中连接的GPU数量最多为8个,通信速度为每秒900千兆位。GB200 NVL72将容量增加到72个Blackwell GPU,通信速度为每秒1.8兆字节,比以前的高端以太网标准快36倍。
Narasimhan表示:“关键要素之一就是使用NVSwitch将所有服务器和计算GPU紧密结合在一起,以便我们可以将它们安装到单个机架中,这使我们能够使用铜缆线配置NVLink以降低成本,并且比光纤消耗更少的电量。”
NVIDIA在机架上增加了100磅的钢筋以适应密集的基础设施,并开发了快速释放管道和电缆技术。NVLink主干经过加固,可容纳多达5000根铜缆,提供120 kW的功率,是当前机架设计负载的两倍多。
“我们将为整个机架贡献我们所取得的所有创新,以加固机架本身,升级NV Links、线路冷却和管道快速断开创新,以及位于计算托盘和开关托盘顶部的歧管,为每个单独的托盘提供直接液体冷却,”Narasimhan说。
Arm牵头的这个项目将结合Rebellions的Rebel AI加速器以及ADTechnology以Neoverse CSS V3为驱动的计算芯片,该芯片采用三星代工厂的2纳米Gate-All-Around先进工艺技术实现。两家厂商表示,在运行生成AI工作负载时,该芯片的性能和能效是竞争对手架构的两到三倍。Rebellions今年早些时候筹集了1.24亿美金,用于资助其工程设计工作。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。