ISC High Performance 2024:NVIDIA揭秘“未来启示录”三部曲 原创

NVIDIA:我又来刷新“科技观”了!

超越传统极限的超级计算正在悄然兴起,颠覆着旧有框架;量子计算的力量在静默中觉醒,破译技术深处的奥秘;科学研究不断突破,解锁人类未知的密码;人类积蓄“可持续”的力量,探索未解之谜和未来转机。

当“常识”被颠覆,面对“不可名状”的未来技术世界,这三部“启示录”,正来的恰如其时。

启示一:量子计算开启“QPU 纪元”

ISC High Performance 2024:NVIDIA揭秘“未来启示录”三部曲

一直以来,量子计算面临的挑战是多重的,包括维持极低温度运行环境、精确控制量子比特及其错误率的管理。这些技术难题一度让量子计算的实用化“遥不可及”。

为了开展算法研究并为未来的量子优势构建应用程序,NVIDIA利用在不同系统架构之间实现动态工作流程的桥接技术。打造出开源的CUDA-Q 量子计算平台,该平台可以作为微服务,帮助用户实现跨量子与经典计算元件,通过一个实现CPU、GPU 和 QPU(量子处理器)协同工作的统一编程模型,实现量子计算机模拟和混合应用开发。

这其中,QPU 的工作方式与传统的CPU和GPU大相径庭。后者通过电流的开关状态来代表数据位的0或1,进行信息处理;而QPU则使用量子位,这是一种能表示多种量子态的数据单元。量子位就像是指向可能性空间中各点的时钟指针,为量子计算提供了前所未有的多维度处理能力。利用CUDA-Q平台,可连接协同QPU和GPU模拟器,不仅能轻松集成工具链,还能实现与当下GPU加速应用程序的互操作。

与其他量子框架相比,NVIDIA CUDA-Q 可显著加快量子计算的速度,不仅能够在许多不同类型的量子处理器(模拟或物理)上直接执行混合代码,还支持研究人员利用 NVIDIA cuQuantum设备加速仿真后端,以及由NVIDIA Grace Hopper™ 超级芯片提供增强支持的QPU,或连接自有的仿真器或量子处理器。这种整合极大地促进了不同计算模块的协同工作,加速了量子计算应用的实际部署和创新。

无论是德国JSC正在安装IQM制造的QPU,支持其配备 NVIDIA Grace Hopper™ 超级芯片的JUPITER超级计算机,推动化学模拟和优化问题的量子应用发展;还是日本AIST的 NVIDIA Hopper 架构ABCI-Q超级计算机整合了QuEra的QPU,利用铷原子开展量子计算研究,推动量子应用的实用化;亦或PSNC将新装的光子QPU连接到由 NVIDIA Hopper 加速的全新超级计算分区,加快对生物学、化学和机器学习领域的探索。

“NVIDIA 的量子计算平台正持续助力其拓展科学发现的边界,并推进量子集成的超级计算的前沿发展。”NVIDIA HPC 和量子计算总监 Tim Costa这样说。

值得注意的是,NVIDIA在5月13日宣布,将持续通过开源的NVIDIA CUDA-Q™ 量子计算平台,助力全球各地的国家级超算中心加快量子计算的研究发展。

启示二:AI让HPC在实验室“发芽”

在科学研究领域,研究人员面临着前所未有的数据处理和计算挑战。传统计算框架能源效率低、处理速度不足的挑战,难以支撑大规模、复杂的数据处理任务,直接影响到科研成果的速度和质量。这种背景下,生成式人工智能在高性能计算(HPC)领域的引入,能通过高效的数据处理能力,解决科研中的计算瓶颈问题。

ISC High Performance 2024:NVIDIA揭秘“未来启示录”三部曲

在代码自动生成方面,能够自动优化和调整计算任务,使得研究人员可以更专注于科学问题本身,减少在编程和调试上消耗的大量时间。在遗传学研究中,生成式 AI 能够迅速分析和模拟大规模基因组数据,加快了对遗传变异和疾病关联性的理解。这种技术的应用不仅加速了科学发现的过程,也为医学研究提供了更为精确的分析工具。

目前,桑迪亚实验室便正在利用检索增强生成(RAG)技术创建 Kokkos 数据库,并将其与 AI 模型打通。研究人员采用不同的 RAG 方法进行实验,初步测试显示出了可喜的成果。在这一过程中,NVIDIA 提供了NVIDIA NeMo Retriever等丰富工具,帮助其加快 HPC 软件开发人员的工作速度。

NVIDIA Blackwell平台更是通过新的加速器和网络技术,显著提升了AI、科学计算及数据分析的性能,优化了规模语言模型和各类模拟,降低能耗和成本,推动科学和技术的突破发展。

NVIDIA HPC 和超大规模数据中心副总裁 Ian Buck 表示:“AI 正在加速气候变化研究、新药研发和数十个其他领域的突破性研究。搭载 NVIDIA Grace Hopper 的系统能够在提升能效的同时深入改变各行各业,因此正在成为高性能计算的重要组成部分。”

在气候研究方面,采用NVIDIA Earth-2 的生成式 AI 模型 CorrDiff,极大增强了模型在捕捉精度,将传统25公里的大气模型分辨率降尺度至2公里,提高了对极端天气事件的预测准确性。

ISC High Performance 2024:NVIDIA揭秘“未来启示录”三部曲

在医学领域,阿贡国家实验室运用 NVIDIA 的 Tensor Core GPU 和生成式语言模型 GenSLMs 加速了对新冠肺炎病毒的基因序列研究。这一技术使得研究人员能够预测病毒的变异趋势,为疫苗开发和病毒防控策略提供了关键数据。

在材料科学的应用中,微软研究院利用 NVIDIA Tensor Core GPU 在 Azure AI 基础架构上开发了 MatterGen 模型。这一模型可以预测和生成具有特定化学和物理性质的新型材料,从而加快新材料的研发周期,提高研究的经济效率和安全性。

业界声音表示,这仅仅是研究人员利用生成式 AI 推动 HPC 和科学发展的开始。在NVIDIA的帮助下,他们的工作效率将提升到新的水平。

启示三:PUE过时了?

ISC High Performance 2024:NVIDIA揭秘“未来启示录”三部曲

数据中心的能效评价正处在一个新的转型期,旧的模式需要更新以迎接新的技术挑战。在AI驱动的时代,不仅需要新工具,更需要新思维来衡量和提升数据中心的能效。

运营人员在超级计算机和数据中心的运营维护工作,一直面临缺少能够准确测量每单位能源所完成工作的标准的难题。这就像驾驶赛车过程中看不到里程表,驾驶员只能感知到速度而不能了解行进距离。

为了提升能效,数据中心迫切需要更先进的监测工具,实时展示应用程序的运行状态,指导如何逐步提高效率。

目前,广泛使用的能源使用效率(PUE)标准,主要通过比较设施总体能源消耗与计算基础设施实际使用能源的比率来评估效率。虽然PUE在过去帮助数据中心逐步优化能效,但随着AI和大数据日益增长,它显得力不从心。

PUE的局限在于,它仅能反映能源消耗量,而不能衡量数据中心产出的实际价值,这就像评估一个汽车的效率仅仅通过它的油耗,而不考虑它行驶的距离。

目前,评估数据中心效率的标准,多达三十多项,涵盖从冷却系统到安全措施的各个方面。然而,这些指标往往无法全面反映出AI时代对效率的新要求。这就像计算机行业以“瓦特”作为衡量系统功率的单位,其只能反应系统在某一时刻的能耗,并不反映出整体的能效。现代数据中心的衡量标准应更关注能源总消耗(如千瓦时或焦耳)以及这些能源完成了多少有用功。

在定义数据中心的“功”时,通常使用如每秒百万条指令(MIPS)或每秒浮点运算次数(FLOPS)等技术性指标,这些虽然精确,却不直观。用户更关心的是他们的系统能完成多少实际工作,而这背后的有效功往往带有一定的主观性。

针对AI应用的数据中心,基准测试如MLPerf提供了一种衡量方式,而科研和商业用途的数据中心可能需要更具体的标准。

数据中心工程师Christian Belady和计算机效率研究者Jonathan Koomey都认为,随着技术的发展和应用场景的变化,需要发展新的能效指标。这些新指标应能够适应不断变化的技术环境和工作负载,确保数据中心能在新时代中继续提升其能效。

事实上,目前已经出现工作负载通过将具有并行处理能力的硬件、软件与方法相结合的方法,实现了比CPU 更快、更高效的应用运行速度。

美国国家能源研究科学计算中心 Perlmutter 超级计算机就利用加速计算将能效平均提高了 5 倍。据了解Perlmutter 超级计算机的加速计算能力,缘于NVIDIA GPU。

经过调查显示,Green500 榜单上排名前 50 的超级计算机中,有 39 台(包括排名第一的系统)都使用了 NVIDIA GPU。这缘于GPU 可以并行执行大量任务,因此与 CPU相比,GPU可以在更短的时间内完成更多的工作并以此实现节能。

随着每一代 GPU 软硬件的推出,性能提升幅度也在不断增长。斯坦福大学的AI 研究团队在报告中显示,自 2003 年以来,GPU 的性能“大约提高了 7000 倍”,单位性能的能效比则 “提高了 5600 倍”。

“利用这种方法,许多行业的企业都取得了更好的成果。”一位行业分析师这样评价道。

来源:至顶网计算频道

0赞

好文章,需要你的鼓励

2024

05/16

15:57

分享

点赞

邮件订阅