Nvidia本周二宣布在英国上线Cambridge-1超级计算机,该系统预计耗资1亿美元,用于支持生命科学方面的研究。
Nvidia表示,这台超级计算机是英国迄今为止所部署的速度最快的计算机。
Nvidia公司创始人、首席执行官黄仁勋表示:“Cambridge-1系统将让全球领先的商界和学术界研究人员能够使用英国这台性能最高的超级计算机完成他们毕生的工作,以前所未有的规模和速度发现疾病和治疗的线索,而这在英国是前所未有的。这些科研成果虽然是在英国创造的,但影响力将是全球性的,推动开创性的研究,将让全球数百万人从中受益。”
在Linpack工具的测试下,Cambridge-1的系统性能可达8 petaflops 的性能。Linpack是一种主流的基准测试工具,通过让系统解决一系列数据方程式来测试系统的速度。Nvidia表示,Cambridge-1在运行AI工作负载时的性能可跃升到400 petaflops。
Cambridge-1系统是完全由可再生能源提供动力的,运行在数据中心运营商Kao Data管理的数据中心内。这台超级计算机采用给了80个Nvidia DGX A100计算模块,这些模块配备了用于运行AI软件的高端A100数据中心显卡,以及BlueField-2 DPU。DPU是一种辅助芯片,可以执行诸如网络管理之类的日常杂务,释放系统主处理器的资源用于执行其他任务,从而具有加速应用的效果。
Nvidia利用去年发布了SuperPOD架构打造了Cambridge-1系统。SuperPOD解决了构建超级计算机通常需要花费数月甚至是数年时间的这一挑战,通过使用Nvidia旗下Mellanox子公司的网络设备,将DGX A100计算模块连接在一起,使得该架构可以相对轻松地将DGX A100计算模块配备到超级计算机中,结果就是在某些情况下,硬件部署过程可以从几年或者几个月缩短到几周。
Nvidia将向生命科学领域的研究人员提供Cambridge-1系统,帮助推进他们的工作。Nvidia表示,正在与来自5个组织的研究人员展开Cambridge-1系统所支持的首批项目,包括AstraZeneca 、GSK、Guy’s and St Thomas’ NHS Foundation Trust、King’s College London和Oxford Nanopore Technologies。
目前Nvidia正在帮助AstraZeneca公司开发一种AI模型,研究可用于制造新药的化学结构。此外Nvidia计划把Cambridge-1系统用于一个旨在利用机器学习算法自动分析组织样本扫描的项目。
GSK将在药物发现过程中采用Cambridge-1系统,而King’s College London和Guy’s and St Thomas’ NHS Foundation Trust正在利用该系统训练AI模型以生成并合成大脑图像,从而使研究人员更好地了解大脑疾病,帮助他们开发促进早期诊断和治疗的各种方法。
King’s College London生物医学工程与成像科学学院院长Sebastien Ourselin教授说:“通过这一合作关系,我们将能够在医疗研究中具备前所未有的计算能力,这将真正改变患者的健康和治疗状况。”
此外,Oxford Nanopore Technologies公司也将利用Cambridge-1系统来改进他们的科学算法。该公司提供的DNA和RNA测序产品主要用于医疗和环境监测等领域。Nvidia表示,该公司预计利用Cambridge-1可以把某些算法改进任务的持续时间从几天缩短到几个小时。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。