英特尔公司今天宣布,该公司帮助美国能源部建造的超大规模超级计算机Aurora的所有计算模块已经安装完毕。
该系统是能源部、英特尔和HPE公司三方的合作。它位于Argonne国家实验室。科学家们将使用该系统运行人工智能模型、模拟和大规模数据分析应用。
预计今年晚些时候,Aurora的理论峰值性能将超过2 exaflops。这将使它的速度几乎达到世界目前运行最快的超级计算机(即能源部另一个名为Frontier的系统)的两倍。一个exaflop等于每秒10亿次的计算。
Argonne国家实验室的实验室副主任Rick Stevens表示:“在我们努力进行验收测试的同时,我们将使用Aurora来训练一些科学方面的大规模开源生成式人工智能模型。”“Aurora拥有超过6万个英特尔Max GPU,一个非常快的I/O系统和一个全固态大容量存储系统,是训练这些模型的完美环境。”
Aurora由10,624个被称为刀片的计算模块组成。这些刀片每个重70磅,在166个冰箱大小的机柜里运行。完全组装好的系统所占的空间相当于两个专业篮球场。
每个Aurora刀片包括两个来自英特尔至强Max系列CPU芯片的中央处理单元。还有六个英特尔Max系列GPU显卡。这些处理器由内存芯片、网络设备和内置在每个刀片中的冷却装置支持。
英特尔的Xeon Max系列CPU芯片基于10纳米架构。它们针对人工智能模型等工作负载进行了优化,这些模型需要频繁地将数据移入和移出内存的能力。为了加速此类工作负载,这些CPU采用了一种被称为HBM的高速内存,这在英特尔之前的芯片中是没有的。
英特尔的Max系列GPU,构成了Aurora的另一个核心构件,也针对AI工作负载进行了优化。显卡表达计算的语言被称为指令集。英特尔Max系列GPU的指令集专门针对矩阵乘法,即人工智能模型用来处理数据的数学运算。
这些芯片还包括多达128个光线追踪单元。光线追踪是一种渲染照明和阴影效果的方法。据英特尔称,该技术加快了科学应用的数据可视化功能。
总体而言,Aurora具有21248个CPU和63744个显卡。这使得它成为世界上最大的GPU集群。这些芯片由一个220PB的对象存储池支持,Aurora将用来存储科学应用的数据。
充分利用Aurora的性能需要研究人员专门为该系统优化应用。为了减轻这一任务,能源部已经创建了一个名为Sunspot的缩微版Aurora。它提供了一个环境,研究人员可以在其中测试不同的软件优化方法。
截至今年早些时候,有十多个研究小组正在使用该系统。一旦Aurora开始运行,这些团队将开始从Sunspot转移代码。早期的Aurora用户将侧重确定在第一批生产应用可以部署之前可能必须解决的所有技术问题。
好文章,需要你的鼓励
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。