在全球超级计算机排行榜上,美国目前有两台超级计算机领跑,位列第一和第二的分别是IBM打造的两套系统。
最新发布的Top500榜单显示,曾经在6月首次获得第一名的美国能源部Summit超级计算机,再次位列第一巩固了领先优势。这台超级计算机最近升级之后的性能得分达到143.5petaflops,之前为122.3petaflops。
与此同时,Summit的姊妹超级计算机Sierra成为新晋第二名,在升级后取代了中国的“神威太湖一号”(Sunway TaihuLight),性能得分为94.6petaflops。
Top500榜单采用Linpack数学测试来评估计算机执行计算的速度。Summit超级计算机的处理能力相当于世界上每个人每秒执行1900万次计算,这一壮举可以说是令人印象深刻。
另外还采用了另一个名为High-Performance Conjugate Gradient的测试,在这项测试中Summit和Sierra也排名第一。
超级计算机通常用于研究目的,包括核弹虚拟测试、了解宇宙的形成、预测气候变化、飞机空气动力学建模等任务。
橡树岭国家实验室所拥有的Summit专为高能物理和材料发现等人工智能工作负载设计。该实验室称,在某些情况下Summit每秒可执行超过30亿次的计算。
Sierra则是由美国能源部国家核安全局和劳伦斯利弗莫尔国家实验室共同运营的。
两台超级计算机均由IBM Power9 CPU和Nvidia V100 GPU的组合提供动力,是非常庞大的,由很多冰箱大小的电脑机柜组成。Summit拥有240万个处理器核心,而Sierra拥有160万个核心。
Top500的第三名和第四名均来自中国。“太湖之光”(TaihuLight)超级计算机以93petaflops的表现滑落至第三位,而天河2A则以61.4 petaflops的成绩获得第四。排名第五位的是用于瑞士国家超级计算机中心的Piz Daint,性能得分为21.2 petaflops。
中国打造的超级计算机仍然在整体排名中占据主导地位,前500名中有227套来自中国。与此同时,美国只有109套,历史新低。
好文章,需要你的鼓励
传统数据工程面临数据质量差、治理不善等挑战,成为AI项目的最大障碍。多智能体AI系统通过协作方式正在彻底改变数据准备、治理和应用模式。Google Cloud基于Gemini大语言模型构建协作生态系统,让不同智能体专门负责数据工程、科学、治理和分析等任务。系统通过分层架构理解组织环境,自主学习历史工作流程,能够预防问题并自动处理重复性任务,大幅提升效率。
中科大团队开发出LongAnimation系统,解决了长动画自动上色中的色彩一致性难题。该系统采用动态全局-局部记忆机制,能够为平均500帧的动画进行稳定上色,性能比现有方法提升35-58%。核心创新包括SketchDiT特征提取器、智能记忆模块和色彩优化机制,可大幅提升动画制作效率。
微软推出Copilot调优功能,让企业通过低代码工具利用自动化微调技术训练企业数据。与基于公开数据的通用AI模型不同,企业需要理解内部数据和流程的专业化模型。Gartner预测专业化GenAI模型市场将在2026年翻倍至25亿美元。这些模型通常基于开源模型构建,部署为小语言模型,提供更好的成本控制和数据安全性,同时更易符合欧盟AI法案要求。
南开大学团队开发出DepthAnything-AC模型,解决了现有AI距离估算系统在恶劣天气和复杂光照条件下性能下降的问题。通过创新的扰动一致性训练框架和空间距离约束机制,该模型仅用54万张图片就实现了在雨雪、雾霾、夜晚等复杂环境下的稳定距离判断,同时保持正常条件下的优秀性能,为自动驾驶和机器人导航等应用提供了重要技术支撑。