英伟达A100拿下中国主流CSP及服务器制造商

NVIDIA公司今日宣布,多家中国顶级云服务提供商及系统制造商纷纷采用NVIDIA A100 Tensor Core GPU和NVIDIA技术,为企业和行业的各类AI应用提速。

A100面世不到一年,就已经成为了各大CSP和服务器制造商眼中的头牌利器了。NVIDIA公司今日宣布,多家中国顶级云服务提供商及系统制造商纷纷采用NVIDIA A100 Tensor Core GPU和NVIDIA技术,为企业和行业的各类AI应用提速。

今年5月,NVIDIA推出了首款基于NVIDIA Ampere架构的NVIDIA A100 Tensor Core GPU。迄今为止,包括阿里云、百度智能云、滴滴云、腾讯云等在内的众多中国云服务提供商纷纷推出搭载了NVIDIA A100的多款云服务及GPU实例。

NVIDIA A100 GPU配备了具有更高精度的第三代Tensor Core核心,性能较上一代产品有显著提升。可提供600GB/每秒GPU间连接传输速率的第三代NVIDIA NVLink、NVIDIA NVSwitch、PCIe Gen4与NVIDIA Magnum IO软件SDK的组合,可实现成千上万个GPU集群的高效扩展,这些技术得到了来自于NGC容器注册中NVIDIA市场领先生态系统的支持。

在NVIDIA A100得到中国云服务提供商的迅速采用之外,最新发布的NVIDIA A100 PCIe版本以及NVIDIA A100 80GB GPU也迅速成为了包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商的首选。

NVIDIA亚太区销售与营销副总裁Raymond Teh表示:“当今世界,高性能计算与AI应用对于计算能力的需求呈指数级增长。NVIDIA A100专为世界上最严苛、最复杂的工作负载运算提供卓越性能而设计,这些需求广泛存在于AI、数据科学、科研计算等多个领域。”

中国云服务提供商采用NVIDIA A100为其全球用户赋能

阿里云、百度智能云、滴滴云、腾讯云的大型数据中心正在迁移至基于NVIDIA Ampere架构的平台,从而可以充分利用NVIDIA A100在AI推理和训练方面提供的非凡速度与可扩展性。图像识别、语音识别,以及包括计算流体动力学、计算金融学、分子动力学在内的GPU加速高性能计算场景的快速增长,催生了对于云实例的需求。云实例可以帮助用户执行更高级的实时工作负载。

NVIDIA A100不仅可以满足全球云服务提供商用户对性能的要求,而且还可以为全球用户提供强大的可靠性支持。中国云服务提供商正在采用A100来满足各行各业的多样化需求:

  • 阿里云已经发布了基于NVIDIA A100 打造的gn7 GPU系列云服务器,该产品主要面向AI训练和高性能计算应用,可提供新一代GPU计算实例。云服务器中的8块NVIDIA A100 GPU可通过NVIDIA NVLinkTM 和NVSwitchTM技术实现先进的多GPU通信。这些NVIDIA技术可支持阿里巴巴gn7云服务器相比上一代平台实现最高20倍的AI性能,以及2.5倍的高性能计算速度。
  • 百度智能云即将推出基于NVIDIA A100打造的lgn3 GPU系列云服务器、vGPU 云服务器以及百度太行裸金属服务器产品,该系列产品最高将搭载8块 NVIDIA A100 GPU,8T NVMe SSD 磁盘以及百G带宽,主要面向AI训练/推理、高性能计算应用、科学计算等场景。基于A100 TF32新技术,百度新一代GPU云服务器提供20倍于 V100 FP32云服务器的计算能力。
  • 滴滴云A100裸金属服务器配置了8块NVIDIA A100 GPU 、2 颗 AMD EPYC 7302 CPU处理器、1024GB内存、2个240GB SATA SSD,以及2个2T NVME SSD磁盘,适用于AI、数据分析、高性能计算等多种应用场景。
  • 腾讯云已推出首款搭载NVIDIA A100的GPU云服务器GT4,其搭配AMD ROME CPU平台,支持PCIe 4.0技术以及最高180核的vGPU配置。适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域,可提供更高性能的计算资源,从而进一步降低使用成本,帮助企业、高校及研究人员聚焦模型的优化与创新。

中国OEM厂商致力于满足全球对搭载A100 NVIDIA认证系统不断增长的需求

包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商也在以前所未有的速度将NVIDIA A100 GPU引入到它们的产品中,并推出了多款针对不同应用场景的系列产品,为超大型数据中心提供基于NVIDIA Ampere架构的加速系统,进而为用户提供兼具超强性能与灵活性的AI计算平台。

  • 新华三已推出支持由NVLink 实现8颗NVIDIA A100 GPU全互联的6U服务器H3C UniServer R5500 G5,并且全线GPU服务器机型也已同步适配升级,包括H3C UniServer R4900 G3(2U 3GPU)、R5300 G3(4U 8GPU)、R4950 G5(2U 4GPU),部分机型已完成NVQUAL认证,全面覆盖集群建设、大规模AI模型训练、高性能计算及AI项目部署等应用场景。
  • 浪潮发布了多款支持NVIDIA A100 40G的AI服务器,其可支持8到16颗NVIDIA A100,包括NF5488M5-D,NF5488A5, NF5688M6, NF5888M6。此外浪潮还推出了三款支持NVIDIA A100 PCIe 版本的服务器NF5468M6、NF5468A5和NF5280M6。近日,支持最新NVIDIA A100 80GB GPU的AI服务器NF5488M5-D和NF5488A5已全球量产供货。浪潮全系列AI服务器适用于图像处理、智能客服、金融分析、自然语言处理等最具挑战性的AI应用场景。
  • 推出了支持NVIDIA A100的HG680X,其4U 8GPU的规格,可满足单机多卡形态的需求,且同时支持两种拓扑形式,可灵活搭配。本地存储支持最多8个NVMe SSD加16*2.5英寸SAS/SSD或24*2.5英寸的SAS/SSD,为存储容量提供保障。HG680X适用于大型深度学习模型训练场景和大量数据的推理场景,适应不同深度学习算法与改进,可满足互联网、金融、制造等不同行业客户的多样化需求。
  • 在X640 G30 GPU服务器上完成了8卡NVIDIA A100的适配,并通过了NVIDIA NVQUAL的官方认证。X640 G30可针对不同的应用场景进行GPU互联拓扑的调整,实现算力的完美升级。搭载NVDIA A100的X640 G30已在客户处完成了批量部署,大量应用于海量数据训练、深度学习、语音识别、图像识别等领域,极大提升了客户数据处理和训练的效率

来源:业界供稿

0赞

好文章,需要你的鼓励

2020

12/15

13:32

分享

点赞

邮件订阅
白皮书