超过20个超大端口数、高速、智能模块化的交换机系统将在2019年第一季度交付给领先的数据中心,这表明多个应用领域对200G InfiniBand的需求不断增长
Mellanox是面向数据中心服务器和存储系统的高性能、端到端互连解决方案的领先供应商,该公司宣布,其200 Gb/s HDR InfiniBand技术和解决方案创造了新的性能记录,为高性能计算、人工智能、云计算、存储和其他数据密集型应用提供领先的效率和可扩展性。HDR InfiniBand于2018年第四季度开始出货,连接了超过1万个终端。在2019年第一季度,HDR InfiniBand将连接全球超级计算、云计算和超大规模数据中心的数万个计算和存储终端。此外,在2019年第一季度,将有超过20个800端口的高速智能模块化交换机系统交付给多个数据中心,这表明多个应用领域对速度最快的InfiniBand解决方案的需求不断增长。
Mellanox Technologies最终用户销售和业务开发高级副总裁Amir Prescher表示:“我们的200G HDR InfiniBand解决方案中内置的创新技术、性能优势和网内计算加速引擎,使HDR InfiniBand成为全球领先的计算和存储基础设施的互连首选。我们从2018年开始向多个客户发货,我们会继续看到HDR InfiniBand在所有地区的强劲势头。全球范围内的百亿亿级(Exascale)超级计算战略竞赛、指数级增长的数据收集和分析需求,科学研究和新产品设计对计算性能需求的与日俱增,都需要最快且最先进的HDR InfiniBand互连技术。HDR InfiniBand解决方案可实现突破性的性能水平并提供最高的投资回报,使下一代全球领先的超级计算机、超大规模数据中心、人工智能、云计算和企业数据中心成为可能。”
HDR InfiniBand Quantum CS8500模块化交换机系统提供800个端口,每个方向200Gb/s数据吞吐量(或400Gb/s全双向数据吞吐量),或1600个端口,每个方向100Gb/s数据吞吐量(或200Gb/s全双向数据吞吐量)交换容量,这使其成为世界上最快的高速智能交换机系统。Quantum CS8500的交换容量总计为每秒320Tb,比其他产品高1.4至2.5倍,相当于每秒发送800张超高清蓝光光盘的内容。
HDR 200G InfiniBand网内计算加速引擎,包括Mellanox可扩展分层聚合和归约协议(SHARP)以及其他消息传递接口(MPI)卸载,提供了最高的性能和可扩展性。在高性能计算(HPC)和人工智能(AI)应用方面,与基于CPU的实现相比,Mellanox SHARP将数据聚合操作加快了3倍,加快了科学仿真、数据分析和AI深度学习训练应用的速度。HDR InfiniBand网卡提供业内最高的吞吐量和消息处理能力,展示了每秒向网络发送2.15亿条消息的能力,是EDR InfiniBand的1.5倍。
更高交换密度的HDR InfiniBand Quantum交换机使Mellanox用户能够优化其空间和功耗的使用,并最大限度地提高数据中心的投资回报率。对于部门级规模的实施,一台Quantum QM8700交换机可连接80台服务器,比竞争对手产品高出1.7倍。对于企业级规模而言,一个2层的 Quantum交换机拓扑可连接3200台服务器,比竞争对手产品高出2.8倍。对于超大规模数据中心来说,一个3层的Quantum交换机拓扑可连接128000台服务器,比竞争对手产品高出4.6倍。
Mellanox HDR InfiniBand端到端解决方案,包括ConnectX-6网卡、Quantum交换机、即将推出的HDR BlueField 片上系统(SoC)以及LinkX线缆和收发器,为HPC、云计算、人工智能、存储和其他应用提供了最佳的性能和可扩展性,并给予用户增强其研究、发现和产品开发的能力。HDR BlueField SoC将提供优化的NVMe存储性能、增强的安全功能以及将用户定义的算法从主CPU卸载到网络的能力,从而降低延迟并提高数据中心效率。Mellanox InfiniBand解决方案支持所有计算架构,确保了向后和向前的兼容性。
好文章,需要你的鼓励
Blackwell GPU的生产制造工作量达到Hopper GPU的两倍有余,但带来的收入仅增加至约1.7倍。
由AMD驱动的El Capitan超级计算机(现位于美国劳伦斯利弗莫尔国家实验室(LLNL))成为世界上速度最快的超级计算机。