Nvidia公司今天详细介绍了Nvidia的芯片是如何在该性能计算领域加速创新的,配备在人工智能驱动的系统中,将通过超级计算推动科学的进步。
Nvidia还宣布将努力加速在世界各地国家量子计算中心开展的量子计算工作,其中包括在各个国际站点安装Nvidia的开源CUDA-Q平台。
高性能计算是先进科学研究的核心,有助于揭示大规模世界的重要洞察,特别是大气和海洋模型所需的AI模拟。材料和生命科学(例如生物制药和药物发现)也需要极高的计算能力,其中复杂方程和建模的计算需求可能很快超过典型系统。
这次Nvidia宣布在全球范围上线9套新型超级计算机,这些计算机正在使用Grace Hopper Superchips进行科学发现和创新——据Nvidia称,这些系统组合起来代表着200 exaflops,即每秒 200百亿次计算的AI计算处理能力。
即将上线的新型超级计算机包括位于法国的EXA1-HE,该计算机由CEA、French Alternative Energies and Energy Commission委员会以及Atos集团公司Eviden于4月份宣布上线,是基于Eviden的BullSequana XH3000技术,该架构提供了新的温水冷却系统,EXA1-HE配备了477个基于Grace Hopper的计算节点。
其他上线的超级计算机包括位于波兰学术计算机中心Cyfronet的Helios;HPE位于瑞士国家超级计算中心的Alps;位于德国于利希超级计算中心的Jupiter;位于伊利诺伊大学香槟分校国家超级计算应用中心的DeltaAI;以及位于日本先进高性能计算联合中心的Miyabi。
Nvidia超大规模和高性能计算副总裁Ian Buck表示:“AI正在加速气候变化研究,加速药物发现,并在数十个其他领域带来突破。Nvidia Grace Hopper支持的系统正在成为高性能计算的一个重要组成部分,因为这些系统能够在推动行业转型的同时提高能源效率。”
Nvidia加速全球量子计算研究
Nvidia正在加速量子计算研究,将CUDA-Q 台连接到德国、日本和波兰的超级计算机站点,为其高性能计算系统内的量子处理单元(QPU)提供动力。
QPU充当量子计算机的“大脑”,所有量子处理都在其中进行。它们利用电子或光子等粒子的行为进行计算,这与使用量子位的传统处理器是不同的,量子位和信息可以是1或0的普通位不同,它可以是不确定的,可能是1或a 0。因此,量子处理器的计算速度比传统处理器快得多,因此为量子处理器生成的算法必须解决这些不确定的“潜在”状态,同时它们可能充满噪音且容易出错。
德国于利希研究中心的于利希超级计算中心正在安装由IQM Quantum Computers制造的QPU,连接到Jupiter超级计算机。日本的ABCI-Q超级计算机正在连接QuEra的QPU。波兰波兹南超级计算和网络中心最近安装了两台由OrcaComputing制造的QPU。
CUDA-Q是一个与QPU无关的开源加速超级计算平台,允许在不同GPU和CPU之间跨系统开发开放编程模型,使用CUDA-Q就可以轻松扩展、连接和使用量子资源模拟不同类型的硬件和软件,以便开发人员设计应用。
PSNC的量子处理单元将通过两个PT-1量子光子系统用来探索生命科学、化学和机器学习,这种系统使用电信频率的单光子或光包作为量子位,从而更容易地利用标准电信组件将部件分配和链接在一起。
PSNC首席技术官兼副主任Krzysztof Kurowski表示:“我们与Orca和Nvidia的合作使我们能够打造一个独特的环境,在PSNC构建一个新的量子经典混合系统。对多个QPU和GPU进行开放且轻松的集成和编程,以及通过以用户为中心的服务进行有效管理,这对开发者和用户来说是至关重要的。”
在日本,与ABCI-Q集成的QPU将使用由激光控制的铷原子作为量子位,这些原子与精密原子钟使用的原子类型是相同的,日本产业技术综合研究所的研究人员将利用它来研究AI、能源和生物学中的量子应用。
与Jupiter连接的QPU采用超导量子位或电子谐振电路构建,设计目的是在低温下充当人造原子。该团队将使用它来开发化学模拟的量子应用,并为通过量子计算机加速经典计算机铺平道路。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。