盘点Nvidia GTC大会最重要的5项公告

Nvidia在本周举行的GTC 2023线上大会中发布了太多的公告,远远不止于Nvidia具有标志性的GPU这一范畴。但在筛选了GTC 2023的许多预简报之后,以下是我们认为最重要的五项公告,外加一项荣誉提名。

Nvidia在本周举行的GTC 2023线上大会中发布了太多的公告,远远不止于Nvidia具有标志性的GPU这一范畴。但在筛选了GTC 2023的许多预简报之后,以下是我们认为最重要的五项公告,外加一项荣誉提名。

  1. 利用cuLitho加速芯片创新

最令人印象深刻的公告之一并不是直接关于人工智能的,而是关于加速向市场交付新的、更强大的芯片,如果半导体行业要支持持续不断的AI创新,这是必不可少的。

Nvidia cuLitho是一个新的算法库,可以加速计算光刻的基础计算,即在硅片上印制芯片设计的过程。Nvidia表示,使用cuLitho的速度提高了40倍甚至更高,这将产生两个关键的影响。

首先,提高速度意味着Nvidia 500 DGX H100系统能够完成40000个CPU的工作量,同时还能支持数据中心系统设计,仅占用1/8的空间和1/9的功率,从而提高芯片制造商的生产力和效率。此外,过去需要两周才能完成的芯片设计,现在一夜之间即可完成。

Nvidia表示,重要的是,cuLitho将支持新芯片技术的生产,这些技术需要的计算能力是当今芯片的10倍,例如Inverse Curvilinear Masks和ASML High-NA EUV光刻摄像头。

  1. 使用DGX Cloud让大家都有机会使用自定义的AI模型

AI需要三个步骤:获取和准备数据,根据数据训练模型,以及通过应用使用模型进行推理。 尽管Nvidia DGX已经成为主流的、专门为这种AI工作流构建的系统,但企业越来越希望在云端训练AI。

这次Nvidia在大会上发布了DGX Cloud,一种基于DGX平台的混合云训练即服务产品。DGX Cloud通过将DGX功能推至云端,使企业能够立即访问为生成AI训练高级模型所需的基础设施和软件。Nvidia DGX Cloud让企业可以通过网络浏览器访问他们自己的“AI超级计算机”,并通过单一视图跨云和本地流程。

这让科学家可以指向一个数据集,说出结果应该存放在哪里,然后按开始。因为这是基于云的,所以底层基础设施可以自动高效地横向扩展,使组织能够从小规模开始,然后根据需要发展壮大。对于那些需要扩展AI基础设施但又没有内部资源来优化基础设施的企业来说,DGX Cloud特别有帮助。此外,DGX Cloud还支持跨多个数据科学团队共享AI处理。

DGX Cloud目前可在Oracle Cloud和Equinix上使用,未来还将支持Microsoft Azure和Google Cloud。

在推出DGX Cloud的同时,DGX Cloud还公布了一套新的服务,以促进运行三种不同类型的自定义生成式AI模型:

  • NeMo用于生成人类语言并与之对话。
  • Picasso用于生成文本到图像、文本到视频、文本到3D模型。
  • BioNeMo用于利用蛋白质的语言加速药物的发现。
  1. 围绕Genius AI与Medtronic展开合作

Nvidia多年来一直与医疗设备领域的世界领先企业Medtronic公司合作,在机器人辅助手术、手术导航和互操作成像系统领域进行了一系列的创新。

在这次大会上,Nvidia公布了一项新的合作伙伴关系,设计Medtronic基于Nvidia Holoscan的GI Genius AI辅助结肠镜检查系统,这是一个全栈的AI基础设施,用于构建设备并将AI应用直接部署到临床环境中。GI Genius AI结肠镜检查系统将通过一套新的算法为医生提供实时的AI成像增强功能。

Holoscan的一个关键优势是它与传感器和模式无关,这让让Medtronic能够将他们多年来构建的、或者是收购的数十种设备整合到他们的AI计划中。Holoscan让Medtronic无需构建和维护自身的基础设施,从而让Medtronic公司能够保持快速的创新步伐。

AI的社会影响一直存在争议,因为AI威胁到许多职业,但是在医疗方面的价值怎么强调都不为过。如今医生有可能会错过很多东西,因为他们不可能看到每个数据集中的每一个异常,但AI可以。我们曾经和几家使用AI技术的医疗医生谈过,比如波士顿的马萨诸塞州总医院,他们说,AI让他们缩短了诊断时间,把更多时间花在治疗上,因为AI在查看数据方面承担了很多繁重的工作。

  1. 用于普及生成式AI的推理平台

AI推理是技术进步中一个越来越重要的领域。我们看到,ChatGPT和其他引擎被整合到一系列解决方案中,包括Microsoft 365。AI推理还支持在联络中心使用AI化身、在制造质量控制中进行视频分析等等。

Nvidia在这次大会上宣布推出了用于AI推理的DGX H100计算平台。据Nvidia称,DGX H100的性能提高了9倍,网络速度提高2倍,以及高速可扩展性。微软宣布,微软将成为第一个使用DGX H100的超大规模数据中心用户,并将提供对DGX H100的早期访问。

此外,Nvidia还发布了Nvidia L4,一款适用于任何标准服务器的AI、视频和图形的单槽薄型加速器。根据Nvidia的说法,L4解码、运行模型和编码视频的速度,要比目前最好的CPU平台快120倍,可以同时运行1040多个高清流,处理图形的速度快4倍——相比T4生成图像的速度快2.5倍。在大会上,Google Cloud宣布是L4的早期用户。

最后,Nvidia宣布推出了H100 NVL,用于标准外形尺寸服务器的实时大型语言模型推理。这款PCIe GPU适用于任何采用PCIe卡的标准服务器,但双宽机箱中有2个GPU通过NVLink桥连接,创建了一个具有188 GB内存的GPU。Nvidia表示,H100 NVL的吞吐量是NVIDIA HGX A100的12倍,可以并行运行模型以减少延迟和缩短完成时间。

5、BlueField-3数据处理单元

Nvidia宣布推出了最新的数据处理单元(DPU)BlueField-3,比上一代DPU的Arm处理核心多2倍,加速器也更多,因此它可以将工作负载的运行速度提高8倍。BlueField-3可以跨云、高性能计算、企业和加速AI用例卸载、加速和隔离工作负载。

据相关公告显示,Oracle Cloud Infrastructure已经选择BlueField-3作为其网络堆栈。OCI和BlueField-3的结合将支持大规模GPU集群以获得动态的、始终在线的容量,通过从CPU卸载数据中心基础设施任务来大幅提升性能和效率。

任何执行远程计算密集型任务的服务器都应该使用DPU。基于CPU的服务器不擅长运行加密和数据包处理等某些任务,这导致企业组织不得不在服务器上大量超支,而表现却平平。DPU则可以让服务器执行它们应该执行的任务,并让卸载引擎承担大部分密集型的任务。

荣誉奖:Omniverse Cloud on Microsoft Azure

Nvidia最后还有一个但同样有趣的公告是Omniverse Cloud即将登陆Microsoft Azure。这是一款云原生的平台即服务产品,用于连接、构建和操作元宇宙应用。根据Nvidia的说法,Omniverse已经得到广泛部署,下载量超过300000次,因此我们给了它一个荣誉奖。Omniverse在Azure云中的可用性,将为更多正在考虑利用微软开发元宇宙应用并需要额外企业支持和培训的公司打开了一扇大门。

公告显示,微软和Nvidia将合作把Omniverse直接集成到Microsoft 365中,包括Teams、OneDrive和SharePoint,使用户能够直接从业务应用访问元宇宙功能。

Nvidia的独特之处不仅在于它的GPU,还在于它对所有AI事物都采用了“全栈”的方法。Nvidia提供完整的交钥匙型解决方案,使企业组织能够利用生成式AI、视频分析和机器人技术等优势,而不必担心如何将所有部件组合在一起。这一点如今正变得越来越重要,因为OpenAI和ChatGPT已经引起了人们对AI的新一波兴趣。

盘点Nvidia GTC大会最重要的5项公告

今年早些时候,Nvidia公司首席执行官黄仁勋(如图)曾将ChatGPT称为AI的“iPhone时刻”,但我并不认同这种说法。苹果的iPhone之所以起飞大卖,是因为它让智能手机大众化了,以至于非技术人员也可以使用它。我相信ChatGPT引起了人们的兴趣,但需要对其进行简化以使其可供所有人使用,而这正是Nvidia最擅长的。

来源:至顶网计算频道

0赞

好文章,需要你的鼓励

2023

03/22

09:26

分享

点赞

邮件订阅