科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算Mellanox新品再度提速互联网络

Mellanox新品再度提速互联网络

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

Mellanox持续为数据中心、云计算和HPC提供更好的高速互联网络解决方案,使得该公司可以继续领跑这个细分市场。

来源:网界网 2012年7月9日

关键字: Mellanox InfiniBand HPC 高性能计算

  • 评论
  • 分享微博
  • 分享邮件

近日,全球高速互联网络领域的主要供应商Mellanox推出了新一代支持PCIe 3.0的FDR 56Gb/s InfiniBand和40G以太网解决方案。

  Mellanox全球技术市场高级总监Gilad Shainer表示,支持PCIe 3.0的FDR 56Gb/s InfiniBand单端口网络带宽高达12Gb/s,是QDR Infiniband的两倍,延迟却仅为100纳秒,并采用RDMA和GPU-Direct硬件卸载技术,CPU处理通讯仅有3%。同时,由于支持 VPI(Virtual Protocol Interconnect)技术,可以在任一标准网络、集群、存储系统管理协议间实现无缝连接,每个网卡端口可以自适应成InfiniBand、 Ethernet、FC或数据中心以太网(DCE)端口。

  Mellanox全球技术市场高级总监Gilad Shainer

  据悉,FDR 56Gb/s InfiniBand一经推出,便得到用户的青睐。美国普渡大学新建的一个计算能力名列全球HPC(超级计算机)TOP 100的超级计算机,就采用了Mellanox PCIe 3.0 FDR 56Gb/s InfiniBand适配器、交换接和电缆。欧洲正在建造的最快HPC,计算峰值达到3Petaflops,也采用了Mellanox的FDR infiniband交换机、软件和电缆。美国德克萨斯高级计算中心计划在2013年部署的、计算峰值高达15Pflops的HPC“Stampede” 也将采用Mellanox的FDR Infiniband端到端解决方案。

  在40G以太网方面,Mellanox既推出了40G以太网交换机,也有40G网卡,可搭建数千节点的内部无阻塞交换网络。

  “我们的优势是提供包括芯片、网卡、交换机、线缆和软件在内的、完整的I/O端到端互联方案,并通过最新的Connext X3网卡技术和SwitchX系列交换机技术,无缝整合InfiniBand、Ethernet、FC或增强性以太网。” Shainer说。

  此外,Mellanox在HPC领域正在主推一个“联合设计(Co-Design)”理念。对此,Shainer解释道:“在HPC领域存在一 个现象,即做硬件的人只了解硬件,做软件的人只关心软件。在过去,这种方式还没什么大问题,但随着我们追求更高计算能力的HPC,两者分开的弊端将越来越 明显,因此,Mellanox提倡在HPC的设计阶段就由软、硬件设计师共同工作,以获得更出色的性能。”

  Mellanox已经开始与一些厂商或研究机构共同探索“联合设计”。例如,秉承该理念,Mellanox和微软在Windows 8系统中将InfiniBand的RDAM技术融入到Hyper-V,又例如,通过“联合设计”,Mellanox和美国劳伦斯伯克利国家实验室将HPC 的网络性能提升了700%。Shainer表示该公司将与更多的厂商合作,并提供基于“联合设计”的高速互联网络解决方案。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章