在全球超级计算机排行榜上,美国目前有两台超级计算机领跑,位列第一和第二的分别是IBM打造的两套系统。
最新发布的Top500榜单显示,曾经在6月首次获得第一名的美国能源部Summit超级计算机,再次位列第一巩固了领先优势。这台超级计算机最近升级之后的性能得分达到143.5petaflops,之前为122.3petaflops。
与此同时,Summit的姊妹超级计算机Sierra成为新晋第二名,在升级后取代了中国的“神威太湖一号”(Sunway TaihuLight),性能得分为94.6petaflops。
Top500榜单采用Linpack数学测试来评估计算机执行计算的速度。Summit超级计算机的处理能力相当于世界上每个人每秒执行1900万次计算,这一壮举可以说是令人印象深刻。
另外还采用了另一个名为High-Performance Conjugate Gradient的测试,在这项测试中Summit和Sierra也排名第一。
超级计算机通常用于研究目的,包括核弹虚拟测试、了解宇宙的形成、预测气候变化、飞机空气动力学建模等任务。
橡树岭国家实验室所拥有的Summit专为高能物理和材料发现等人工智能工作负载设计。该实验室称,在某些情况下Summit每秒可执行超过30亿次的计算。
Sierra则是由美国能源部国家核安全局和劳伦斯利弗莫尔国家实验室共同运营的。
两台超级计算机均由IBM Power9 CPU和Nvidia V100 GPU的组合提供动力,是非常庞大的,由很多冰箱大小的电脑机柜组成。Summit拥有240万个处理器核心,而Sierra拥有160万个核心。
Top500的第三名和第四名均来自中国。“太湖之光”(TaihuLight)超级计算机以93petaflops的表现滑落至第三位,而天河2A则以61.4 petaflops的成绩获得第四。排名第五位的是用于瑞士国家超级计算机中心的Piz Daint,性能得分为21.2 petaflops。
中国打造的超级计算机仍然在整体排名中占据主导地位,前500名中有227套来自中国。与此同时,美国只有109套,历史新低。
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。