英特尔公司今天宣布,该公司帮助美国能源部建造的超大规模超级计算机Aurora的所有计算模块已经安装完毕。
该系统是能源部、英特尔和HPE公司三方的合作。它位于Argonne国家实验室。科学家们将使用该系统运行人工智能模型、模拟和大规模数据分析应用。
预计今年晚些时候,Aurora的理论峰值性能将超过2 exaflops。这将使它的速度几乎达到世界目前运行最快的超级计算机(即能源部另一个名为Frontier的系统)的两倍。一个exaflop等于每秒10亿次的计算。
Argonne国家实验室的实验室副主任Rick Stevens表示:“在我们努力进行验收测试的同时,我们将使用Aurora来训练一些科学方面的大规模开源生成式人工智能模型。”“Aurora拥有超过6万个英特尔Max GPU,一个非常快的I/O系统和一个全固态大容量存储系统,是训练这些模型的完美环境。”
Aurora由10,624个被称为刀片的计算模块组成。这些刀片每个重70磅,在166个冰箱大小的机柜里运行。完全组装好的系统所占的空间相当于两个专业篮球场。
每个Aurora刀片包括两个来自英特尔至强Max系列CPU芯片的中央处理单元。还有六个英特尔Max系列GPU显卡。这些处理器由内存芯片、网络设备和内置在每个刀片中的冷却装置支持。
英特尔的Xeon Max系列CPU芯片基于10纳米架构。它们针对人工智能模型等工作负载进行了优化,这些模型需要频繁地将数据移入和移出内存的能力。为了加速此类工作负载,这些CPU采用了一种被称为HBM的高速内存,这在英特尔之前的芯片中是没有的。
英特尔的Max系列GPU,构成了Aurora的另一个核心构件,也针对AI工作负载进行了优化。显卡表达计算的语言被称为指令集。英特尔Max系列GPU的指令集专门针对矩阵乘法,即人工智能模型用来处理数据的数学运算。
这些芯片还包括多达128个光线追踪单元。光线追踪是一种渲染照明和阴影效果的方法。据英特尔称,该技术加快了科学应用的数据可视化功能。
总体而言,Aurora具有21248个CPU和63744个显卡。这使得它成为世界上最大的GPU集群。这些芯片由一个220PB的对象存储池支持,Aurora将用来存储科学应用的数据。
充分利用Aurora的性能需要研究人员专门为该系统优化应用。为了减轻这一任务,能源部已经创建了一个名为Sunspot的缩微版Aurora。它提供了一个环境,研究人员可以在其中测试不同的软件优化方法。
截至今年早些时候,有十多个研究小组正在使用该系统。一旦Aurora开始运行,这些团队将开始从Sunspot转移代码。早期的Aurora用户将侧重确定在第一批生产应用可以部署之前可能必须解决的所有技术问题。
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。