每年发布两轮的全球五百强超级计算机榜单,堪称系统设计领域最新进展的参考依据。其每六个月对世界上速度最快的五百台超级计算机进行排名,相关结果则对新兴技术与处理器的性能以及超算行业如何发展提供了宝贵的指导性信息。
此次最新版本发布于本周一,其中出现了不少个“第一次”。总结而言,目前上榜的所有五百台计算机都能够提供千万亿次或者更高的处理能力。千万亿次指的自然是每秒千万亿次浮点运算,其中的浮点运算指的是一种涉及大数的复杂计算。
由于过去六个月当中计算速度的快速提升,如今全球五百强超算的总体处理能力首次超过了1.5 百亿亿次——用另外一种单位表示,相当于每秒150万万亿次运算。其中去年在能源部橡树岭国家实验室上线的Summit超级计算机为这一总体水平贡献了高达十分之一的力量。凭借着如此强悍的性能,Summit在本次榜单中拔得头筹,其最高计算能力为148.6千万亿次。
亚军则是来自劳伦斯利弗莫尔国家实验室的Sierra设备,其拥有94.6千万亿次浮点运算力。这两套系统都是由IBM公司通过其Power 9 CPU配合英伟达公司旗舰级V100显卡打造的大量服务器构建而成。
然而,尽管美国统治了全球五百强超算榜单的头部空间,但从整体排名来看,情况则有所不同。中国的上榜超算数量几乎达到美国的两倍,此次总计219台。其中速度最快的无疑是神威太湖之光超级计算机,排名第三,以93千万亿次的峰值性能落后于Summit与Sierra。
未来几年,相信超算五百强榜单将会发生重大变化。2021年,美国能源部将启动Frontier,这是一台性能突破1.5百亿亿次的超级计算机,其计算能力相当于现有五百强超算的总和。而该系统在设计上还将被并入后续系统,这套升级系统的性能因此也将更上一层楼。
Frontier之所以如此独特,是因为其采用AMD公司的CPU与显卡构建而成——从传统角度讲,AMD在超算领域的采用比例并不高。目前约有96%的现有五百强系统采用英特尔公司的CPU,而英伟达则负责为大多数超算提供显卡设备。
AMD公司这一令人意外的胜利表明,未来几年超级计算机能力的飞跃也将伴随着竞争态势的转变。目前,市场已经出现了一系列重大变化。就在上个月,HPE公司以13亿美元收购了传奇超级计算机厂商克雷公司,希望借此发展自己的百亿亿次计算系统技术。
图片来源:Randy Wong/劳伦斯利弗莫尔国家实验室。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。