计算机图形芯片制造商Nvidia今天表示,欧洲高性能计算共同计划(EuroHPC Joint Undertaking)将采用Nvidia加速计算平台和架构来打造四台新的超级计算机,从而推动欧洲走到超级计算研究的最前沿。
EuroHPC是一个政府与欧盟之间的联合合作组织,旨在在欧洲构建全球最先进的超级计算生态系统。
这些新的超算系统中,有一个代号“Leonardo”的系统,Nvidia称该系统是全球性能最强的人工智能超级计算机。今天,该系统在意大利大学间财团CINECA的研究中心揭开神秘面纱(如图),可以提供10 exaflops的AI性能,从而承载一些最先进的AI和高性能计算应用。
这四套超级计算机是今年欧洲将公布的八套系统中的第一批,Nvidia表示,这些系统有望跻身世界TOP50超级计算机之列。
EuroHPC此举意在构建一个超级计算机的地区网络,充当“为欧洲数据经济提供动力”的引擎。EuroHPC计划将AI和数据分析应用于一系列商业和科学应用,解决诸如COVID-19和气候变化之类的问题,以及设计更先进的飞机、汽车、药物和材料等。
这些超级计算机都将采用Nvidia最新基于模块化DGX SuperPOD架构的A100 Tensor Core高性能GPU,专门针对AI和推理工作负载设计,此外还采用了Nvidia Mellanox HDR InfiniBand网络来实现高吞吐量和极低延迟的网络连接。
Leonardo系统由总部位于法国的Nvidia系统合作伙伴Atos SE构建,封装了近14000个A100 GPU。CINENCA研究人员计划使用该系统完成例如模拟气候变化背后的行星力以及冠状病毒分子内部分子运动之类的任务。
EuroHPC称,另外三套超级计算机将安装在捷克、卢森堡、斯洛文尼亚,作为国家能力中心帮助这些国家扩展技术实力并创造新的就业机会。
例如,位于卢森堡的MeluXina超级计算机将配备800个Nvidia A100 GPU,提供500 petaflops的AI性能,将用于医疗、金融服务和制造业的商业应用和科学研究。
位于斯洛文尼亚的Vega超级计算机则由马里博尔的信息科学研究所(IZUM)托管,配备240个Nvidia A100 GPU。IZUM主任AlešBošnjak表示,Vega将“有助于确保新一代的专家和开发者、更广泛的斯洛文尼亚民众应对国家级新挑战,并为地区和欧洲高性能计算项目做出贡献。”
位于捷克的系统尚未命名,将由HPE构建,托管在俄斯特拉发的IT4Innovations国家超级计算中心,配备560个Nvidia A100 GPU,提供350 petaflops的AI性能,比该机构现有的超级计算机系统强大7倍。EuroHPC表示,学术研究人员和工业用户将把该系统用于模拟、数据分析和AI。
EuroHPC表示,此外还计划在保加利亚、芬兰、葡萄牙和西班牙构建另外四套基于Nvidia架构的超级计算机,并有可能在2027年向该超算网络中增加更多系统。
Constellation Research分析师Holger Mueller认为,超级计算机是处理复杂AI工作负载的首选平台,各个国家和地区都参与到这场竞赛中。
Mueller说:“很高兴看到古老大陆的欧洲在这一关键领域表现出吸引力,EuroHPC已经计划在今天公布的几个国家之外,在增加四个超算部署点。Nvidia最显着的特点是Nvidia GPU和Mellanox Infiniband网络,这是以AI为中心的下一代应用的关键推动力。”
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。