在今天开幕的年度GTC大会上,Nvidia推出了一系列新的人工智能技术,其中的一项基础设施产品能够让客户在短短几周时间内构建针对深度学习优化的超级计算机。
除了这款基础设施产品之外,Nvidia还推出了一款微型AI开发设备和视频通话质量优化服务Maxine。
Nvidia的GPU已经被很多全球速度最快的超级计算机采用。Nvidia希望通过今天发布的SuperPod for Enterprise解决方案降低建造超级计算机的门槛,从而提高Nvidia芯片在超算市场中的销量。据Nvidia称,SuperPod可以在短短几周时间内构建一个整合了Nvidia计算设备和子公司Mellanox网络设备的多petaflop级的系统。
SuperPod超级计算机的基本构建块是Nvidia DGX A100,整合了8个Nvidia顶级A100数据中心GPU、2个CPU和1 TB内存。Nvidia称,SuperPod让客户可以通过Mellanox HDR InfinityBand交换机在网络中链接20到140个DGX A100,从而创建具有100至700 petaflops处理能力的超级计算机。
Nvidia副总裁、DGX系统业务总经理Charlie Boyle说:“传统超级计算机可能需要数年的计划和部署时间,而NVIDIA DGX SuperPOD for Enterprise是一款交钥匙型解决方案,让客户今年就可以立即开始AI转型。”
图
除发布产品之外,Nvidia还详细介绍了首批采用SuperPod的两个项目,其中一个项目是由Nvidia自己领导的,在英国剑桥搭建的基于SuperPod的系统,耗资约5170万美元,预计将于今年晚些时候上线,将成为英国性能最强大的超级计算机。
Nvidia表示,该系统的“AI性能”将达到400 petaflops,Linpack基准测试性能将达到8 petaflops,按照Linpack指标该系统可在目前全球超级计算机TOP500榜单中位列第29位。英国的制药企业和学术机构等将使用该系统进行医疗方面的研究。
另一个项目是受印度电子信息技术部委托打造的另一台即将面世的超级计算机。Nvidia说,这台SuperPod超级计算机由42个DGX A100组成,有望成为印度速度最快、规模最大的HPC-AI超级计算机,将被用于从医疗到能源等各个领域的研究项目中。
而在计算领域与SuperPod形成鲜明对比的是Nvidia今天推出的另一款产品——Jetson Nano 2GB,一款售价59美元的微型AI设备。它是一种小型电路板,有4个基于Arm Cortex-A57架构的CPU核心,和128个基于Nvidia Maxwell架构的GPU核心,以及1个2 GB的内存驱动器。
这款低价位的Jetson Nano 2GB可作为AI教育工具使用,例如学校可以利用它来教学生构建和部署机器学习模型的基础知识,同时,那些AI开发初学者也可以使用这个产品。此外,Jetson Nano 2GB还适用于某些类型的软件测试,例如测试运行在板载计算能力有限的智能音箱上在语音识别视觉模型。
Nvidia在今天的GTC大会上除了宣布AI硬件更新之外,还有一系列软件公告,推出了基于云的AI服务Maxine,该服务让视频通话所占用的带宽最高降低10倍。
Nvidia表示,Maxine可以分析视频通话中每个参与者的“关键面部”,然后,Maxine仅发送有关这些关键面部点的数据,并使用这些数据对他们的面部进行人工动画处理,而不是发送每个参与者的完整实时视频流,这种方法实质上用计算能力换取带宽,从而降低了视频通话期间必须通过网络传输的净数据量。
在连接受限或者连接不稳定的情况下,这种服务给用户带来的好处是提高的通话质量。反过来,对于视频会议提供商来说,使用Maxine压缩视频数据可以帮助他们降低云基础设施所涉及的费用,是提供高质量视频基础上带来的主要竞争优势之一。
Nvidia媒体事业部高级产品总监Andrew Page解释说:“如今很多企业希望将带宽问题转变为计算问题,因为增加带宽通常很难,而增加计算能力则容易一些。”
Nvidia还为Maxine配备了其他AI功能以赢得视频会议提供商的青睐,例如可以调整通话参与者面部镜头使其好像是在看着彼此,降噪功能以避免视频失真,以及其他类似的优化,让客户可以根据他们的特定需求选择要使用的效果。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。