Nvidia近日详细介绍了研究人员将使用Nvidia芯片支持科学发现的三项举措。
其中一项举措,是布里斯托大学部署一台由Nvidia Grace CPU Superchip处理器提供支持的超级计算机;另外两个项目则专注于量子计算。Nvidia在本周于汉堡举行的ISC 2023 大会上详细介绍了所有这三个项目。
节能型超级计算
英国布里斯托大学正在领导一项计划,旨在构建一台针对研究工作负载优化了的新型超级计算机——Isambard 3,它将由HPE使用Nvidia芯片制造。
据Nvidia称,Isambard 3将配备384个Grace CPU Superchip处理器,每个处理器都包含144个基于Arm设计的CPU核心。这些核心支持SVE Arm指令集技术,可让CPU更高效地运行AI工作负载。
Nvidia预计Isambard 3在执行涉及FP64数据的计算时,将实现2.7 petaflops的最高速度(1 petaflop等于每秒1千万亿次计算操作,FP64则是超级计算机常用的一种数据格式,用于组织其处理的信息)。
科学家们计划使用Isambard 3执行一系列任务。据Nvidia称,该系统将支持人工智能、生命科学、医学、生物技术和天体物理学等领域的研究计划,能够模拟风力涡轮机等大型复杂结构和分子水平的生物机制。
Isambard 3计划于2024年上线。一旦投入运行,该系统的功耗预计将低于270千瓦,成为欧洲最节能的超级计算机之一。Nvidia估计,Isambard 3的能效是布里斯托大学上一代超级计算机的6倍。
Nvidia公司超大规模和高性能计算副总裁Ian Buck表示:“随着气候变化成为一个日益严重的生存问题,计算采用节能技术变得至关重要。NVIDIA正在与Arm Neoverse生态系统展开合作,为打造更节能的超级计算中心铺平前进的道路,推动科学和工业研究取得重大的突破。”
新的量子计算计划
Nvidia还在这次ISC 2023大会上详细介绍了Nvidia的技术是如何为英国和德国的两项量子计算计划提供支持的。
第一项计划,是由罗尔斯·罗伊斯(Rolls Royce)公司与量子计算初创公司Classiq Technologies合作牵头,项目目标是推进罗尔斯·罗伊斯(Rolls Royce)公司开发更高效的喷气发动机,希望使用量子计算机来减轻工程师的工作。
罗尔斯·罗伊斯(Rolls Royce)公司与Classiq合作,使用了一组Nvidia A100 GPU来开发和模拟量子电路。这是一种专门的算法,将来可以运行在量子计算机上。罗尔斯·罗伊斯(Rolls Royce)公司表示,其算法有1000万个“层”和39个量子位。
根据Nvidia的说法,这种量子电路旨在执行与计算流体动力学相关的计算,计算流体动力学是一个专注于模拟复杂物理现象的科学领域。劳斯莱斯公司的量子电路号称是专门为计算流体动力学开发的、同类电路中最大的。
Buck表示:“喷气发动机是地球上最复杂的设备之一,其设计成本高昂且计算难度大,NVIDIA的量子计算平台为罗尔斯·罗伊斯(Rolls Royce)公司提供了一条潜在的途径来解决这些问题,同时加速对更高效喷气发动机的研究和未来开发工作。”
Nvidia此次还详细介绍了和德国研究机构FZJ合作的第二个量子计算计划。FZJ正在与Nvidia合作建立一个新实验室,该实验室将以两家公司所谓的经典量子超级计算机为特色,该系统设置包括了经典计算元素和量子计算元素。
Nvidia详细介绍说,该设备将由总部位于慕尼黑的公司ParTec AG开发。反过来,FZJ研究人员将使用Nvidia的cuQuantum和CUDA Quantum软件工具来模拟系统上的量子处理器。FZJ已经运行了一台配备了3744个Nvidia A100 GPU的经典超级计算机。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。