英伟达重磅发布性能最高的下一代H100 GPU芯片

在今天举行的2022 GPU Technology Conference大会上,英伟达宣布推出了强大的下一代GPU。

在今天举行的2022 GPU Technology Conference大会上,英伟达宣布推出了强大的下一代GPU。

新款GPU基于Nvidia Hopper架构(如图),英伟达承诺该芯片与两年前推出的上一代Ampere芯片相比,性能提升了一个数量级。

英伟达重磅发布性能最高的下一代H100 GPU芯片

第一款基于Hopper架构的GPU是Nvidia H100,一个强大的加速器,包含了800亿个晶体管和多项新功能,其中有Transformer Engine以及可扩展性更高的Nvidia NVLink互连功能,用于提升大型AI语言模型、深度推荐系统等等。

英伟达表示,H100 GPU非常强大,只需20个这样的GPU就可以承载全球所有互联网流量,这也让H100成为那些最先进的AI工作负载的理想选择,例如数据实时推理等。同时,这也是首款支持PCIe Gen5和使用HBM3的GPU,后者意味着H100拥有超过3TB的内存带宽。

重要的是,英伟达H100 GPU更新采用了新的Transformer Engine,可以将基于Transformer的自然语言处理模型速度提高到是上一代A100 GPU的6倍。其他改进还包括第二代安全多实例GPU技术,可将单个H100芯片划分为7个更小的、完全隔离的实例,也就意味着可以同时处理多个工作负载。

H100同时也是第一款拥有机密计算能力的GPU,可在AI模型及其运行时保护它们的数据。此外,H100拥有新的DPX指令,可以实现加速动态编程,一种在很多优化、数据处理和组学算法中常用的技术,英伟达称,其速度是现有最先进的CPU的40倍。因此,H100芯片可以用于加速自主机器人编队使用的Floyd-Warshall算法,或者用于DNA和蛋白质分类序列比对的Smith-Waterman算法。

英伟达表示,H100 GPU旨在为使用大规模AI模型的沉浸式实时应用提供动力,让更高级的聊天机器人能够使用有史以来最为强大的单片变压器语言模型——Megatraon 530B,且吞吐量比A100 GPU高出30倍。英伟达承诺,该芯片还能让研究人员更快速地训练其他大型AI模型。

英伟达表示,除了为AI模型提供动力之外,H100 GPU还将在机器人、医疗、量子计算和数据科学等领域带来重大影响。

H100将于第三季度上市,届时客户将有一系列可用的选项,例如英伟达表示,第四代DGX 系统DGX H100将包含8个H100 GPU,最高可以实现32 petaflops的AI性能。H100芯片也将通过云服务厂商提供,包括AWS、Google Cloud、微软Azure、Oracle Cloud、阿里云、百度AI云和腾讯云,所有这些厂商都计划提供基于H100的实例。

此外,戴尔、HPE、思科、Atos、联想等厂商还将提供一系列采用H100的服务器产品。

除了H100 GPU之外,英伟达还推出了首款基于Arm Neoverse的离散数据中心CPU,专为针对AI基础设施和高性能计算而设计。

这款名为Nvidia Grace CPU Superchip的CPU,包含了2个通过NVLink-C2C(一种新的高速和低延迟芯片到芯片互连技术)连接的CPU,是对英伟达去年推出的首款CPU-GPU整合模块Hopper Superchip的一个补充。Nvidia Grace CPU Superchip将144个Arm核心打包在一个插槽中,支持Arm新一代矢量扩展和英伟达所有计算软件堆栈,包括Nvidia RTX、Nvidia HPC、Nvidia AI和Omniverse。

这些芯片也将于第三季度推出,届时将为那些要求最为苛刻的高性能计算、人工智能、数据分析、科学计算和超大规模计算应用提供所需的性能。

来源:业界供稿

0赞

好文章,需要你的鼓励

2022

03/23

11:36

分享

点赞

邮件订阅