Nvidia本周二宣布在英国上线Cambridge-1超级计算机,该系统预计耗资1亿美元,用于支持生命科学方面的研究。
Nvidia表示,这台超级计算机是英国迄今为止所部署的速度最快的计算机。

Nvidia公司创始人、首席执行官黄仁勋表示:“Cambridge-1系统将让全球领先的商界和学术界研究人员能够使用英国这台性能最高的超级计算机完成他们毕生的工作,以前所未有的规模和速度发现疾病和治疗的线索,而这在英国是前所未有的。这些科研成果虽然是在英国创造的,但影响力将是全球性的,推动开创性的研究,将让全球数百万人从中受益。”
在Linpack工具的测试下,Cambridge-1的系统性能可达8 petaflops 的性能。Linpack是一种主流的基准测试工具,通过让系统解决一系列数据方程式来测试系统的速度。Nvidia表示,Cambridge-1在运行AI工作负载时的性能可跃升到400 petaflops。
Cambridge-1系统是完全由可再生能源提供动力的,运行在数据中心运营商Kao Data管理的数据中心内。这台超级计算机采用给了80个Nvidia DGX A100计算模块,这些模块配备了用于运行AI软件的高端A100数据中心显卡,以及BlueField-2 DPU。DPU是一种辅助芯片,可以执行诸如网络管理之类的日常杂务,释放系统主处理器的资源用于执行其他任务,从而具有加速应用的效果。
Nvidia利用去年发布了SuperPOD架构打造了Cambridge-1系统。SuperPOD解决了构建超级计算机通常需要花费数月甚至是数年时间的这一挑战,通过使用Nvidia旗下Mellanox子公司的网络设备,将DGX A100计算模块连接在一起,使得该架构可以相对轻松地将DGX A100计算模块配备到超级计算机中,结果就是在某些情况下,硬件部署过程可以从几年或者几个月缩短到几周。
Nvidia将向生命科学领域的研究人员提供Cambridge-1系统,帮助推进他们的工作。Nvidia表示,正在与来自5个组织的研究人员展开Cambridge-1系统所支持的首批项目,包括AstraZeneca 、GSK、Guy’s and St Thomas’ NHS Foundation Trust、King’s College London和Oxford Nanopore Technologies。
目前Nvidia正在帮助AstraZeneca公司开发一种AI模型,研究可用于制造新药的化学结构。此外Nvidia计划把Cambridge-1系统用于一个旨在利用机器学习算法自动分析组织样本扫描的项目。
GSK将在药物发现过程中采用Cambridge-1系统,而King’s College London和Guy’s and St Thomas’ NHS Foundation Trust正在利用该系统训练AI模型以生成并合成大脑图像,从而使研究人员更好地了解大脑疾病,帮助他们开发促进早期诊断和治疗的各种方法。
King’s College London生物医学工程与成像科学学院院长Sebastien Ourselin教授说:“通过这一合作关系,我们将能够在医疗研究中具备前所未有的计算能力,这将真正改变患者的健康和治疗状况。”
此外,Oxford Nanopore Technologies公司也将利用Cambridge-1系统来改进他们的科学算法。该公司提供的DNA和RNA测序产品主要用于医疗和环境监测等领域。Nvidia表示,该公司预计利用Cambridge-1可以把某些算法改进任务的持续时间从几天缩短到几个小时。
好文章,需要你的鼓励
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
清华团队开发DKT模型,利用视频扩散AI技术成功解决透明物体深度估计难题。该研究创建了首个透明物体视频数据集TransPhy3D,通过改造预训练视频生成模型,实现了准确的透明物体深度和法向量估计。在机器人抓取实验中,DKT将成功率提升至73%,为智能系统处理复杂视觉场景开辟新路径。
2026年Linux将迎来重大发展机遇。AI将在Linux开发中发挥更大作用,但不会像Windows那样完全重写代码。随着微软持续向用户强推AI功能,更多Windows用户将转向Linux桌面。Rust已正式成为Linux核心语言,提升内存安全性。不可变Linux发行版因其安全性和稳定性获得企业青睐。开源供应链安全将通过SBOM等标准得到加强。然而Firefox因强推AI功能遭用户强烈反对,市场份额跌至1.7%,可能面临消亡危机。
字节跳动研究团队提出了专家-路由器耦合损失方法,解决混合专家模型中路由器无法准确理解专家能力的问题。该方法通过让每个专家对其代表性任务产生最强响应,同时确保代表性任务在对应专家处获得最佳处理,建立了专家与路由器的紧密联系。实验表明该方法显著提升了从30亿到150亿参数模型的性能,训练开销仅增加0.2%-0.8%,为混合专家模型优化提供了高效实用的解决方案。