科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算Mellanox:让InfiniBand渐行渐远

Mellanox:让InfiniBand渐行渐远

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

10月26日至29日,一年一度的全国高性能计算学术年会(HPCChina 2011)在山东济南召开,大会最大亮点之一,中国新的超级计算机Top100榜单发布,天河一号、神威蓝光、曙光星云等超级计算机成为关注焦点,而作为 超算“幕后英雄”的Mellanox,这家以技术见长的公司在本届大会上照例风格低调,Mellanox高级技术总监Gilad Shainer先生在演讲中并没有过多的讨论新的Top100中有多数系统采用了Mellanox的infiniband互连技术,在他看来,infiniband在超级计算机中的广泛应用是“顺理成章”。

来源:比特网 2012年7月9日

关键字: Mellanox InfiniBand HPC 高性能计算

  • 评论
  • 分享微博
  • 分享邮件

10月26日至29日,一年一度的全国高性能计算学术年会(HPCChina 2011)在山东济南召开,大会最大亮点之一,中国新的超级计算机Top100榜单发布,天河一号、神威蓝光、曙光星云等超级计算机成为关注焦点,而作为 超算“幕后英雄”的Mellanox,这家以技术见长的公司在本届大会上照例风格低调,Mellanox高级技术总监Gilad Shainer先生在演讲中并没有过多的讨论新的Top100中有多数系统采用了Mellanox的infiniband互连技术,在他看来,infiniband在超级计算机中的广泛应用是“顺理成章”。

  Infiniband在HPC领域渐行渐远

  超级计算机是一个庞大的系统,正因如此,超算系统的建设并非是简单的硬件堆砌,除了CPU、GPU等核心部件,网络互联技术也是决定超算计算能力和计算效率的重要部分。而Mellanox正是一家致力于主要为数据中心及高性能计算提供端到端连接解决方案的厂商,自1999年成立以来,这家以色列公司一直专注于Infiniband和以太网互联产品的研发工作,如今全球已经有800多名员工,业务从HPC扩展到了数据库、金融和Web2.0等领域,在网络互连领域已经举足轻重,在本次发布的中国Top100榜单中,位于前十的系统,有半数采用了Mellanox的Infiniband产品,如天河一号、曙光星云等。

  谈到infiniband在高性能计算中的地位,以及Mellanox近几年的快速发展,Gilad Shainer先生在采访中展现出强烈的自信,Gilad先生认为,高性能计算发展到今天,超级计算机需要处理的任务越来越大,这对传输介质提出了很高的 要求;从操作管理角度来看,硬件与维护的费用比例达到了1:8;再从功耗的角度看,硬件与冷却的费用比例也有2:1,有超过一半的CPU在空闲处于无应用 负载的状态;换句话说,网络通讯最容易成为HPC的瓶颈。

Mellanox高级技术总监Gilad Shainer先生

  而Mellanox所做的,就是帮助HPC打破这种瓶颈,做到更快速、更低延迟的互连:“Mellanox能够提供端到端的完整互连解决方案, 提供最高的互连带宽、最低的延迟、最高的传输率和最低的CPU使用率,帮助客户的HPC解决I/O瓶颈问题”,谈到Mellanox产品和方案的优 势,Gilad先生这样说。虽然超级计算机的网络互连技术并不单一,比如Top500中还有不少系统采用了以太网或者Cray的互连技术,但正是这些独特 的优势让infiniband在超算中大行其道,据统计,全球Top500榜单中,有41.2%的系统采用了infiniband互连技术。

InfiniBand技术在Top500超算中应用广泛

  支持PCI-E 3.0的Infiniband和40G以太网

  除了在超算榜单中的高占有率,Gilad先生的自信更多的来源于Mellanox不断创新的产品和解决方案。今年,Mellanox家族又有新 的成员面世——支持下一代PCI-E 3.0的FDR 56Gb/s Infiniband和40Gb以太网产品。据Gilad先生介绍,56Gb/s FDR是当前最高带宽、最低延迟的infiniband产品,它具有完整的I/O架构——包括适配器、交换机、电缆和软件;能够实现12GB/s的网络带宽是QDR的两倍;延迟只有0.7us,只有QDR的一半;具有最快的网络连接速度和最低的CPU开销。另外,40Gb以太网产品同样具备完整的I/O架构,包括适配器、交换机、电缆和软件,能够实现完全的40Gb/s的服务器-存储吞吐量,包括无阻塞以太网,性能更高。更重要的是,支持PCI-E 3.0的产品已经问世,可以让用户跳过第二代直接选择第三代产品。

支持PCI-E 3.0的Infiniband和40G以太网

  Mellanox的互连新产品如今在全球已经有了多个成功案例,据Gilad先生介绍,具有648个节点的美国普渡大学超级计算机采用了 Mellanox PCI-E 3.0 FDR Infiniband适配器、交换接和电缆,这是全球首个PCI-E 3.0 FDR的应用案例。 欧洲正在建造的最快超级计算机,计算峰值达到3Petaflops,也是采用了Mellanox的FDR infiniband交换机、软件和电缆;美国德克萨斯高级计算中心计划在2013年部署的、计算峰值高达15Pflops的超级计算机 “Stampede”也是采用了Mellanox的FDR Infiniband端到端解决方案。

  Mellanox的硬件是为了解决HPC中的网络瓶颈,但如今瓶颈不仅出现在硬件,已经转移到了网络通讯函数中。对此,Mellanox也有了 相应的解决方案。“Mellanox方案如今采用了共同设计的架构,在设计阶段开始就由硬件和软件设计师共同工作,以获得最大的性能提升。比如 Mellanox和微软进行共同设计,在Windows 8系统中将Infiniband的RDAM技术融入到Hyper-v”,Gilad先生介绍说,Mellanox会直接提供这种软硬一体的“共同设计”解决方案,或者联合软件厂商进行合作。据介绍,Mellanox和劳伦斯实验室的“共同设计”,让网络性能提升了700%。

  从HPC延伸到新兴行业

  联合软硬件厂商,推出“共同设计”的解决方案,让Mellanox业务更加广泛,已经不再局限于HPC业务。如今Mellanox解决方案已经涵盖数据库、金融服务、Web2.0、云计算等 新兴业务。Gilad先生介绍说,这些新业务能够和Mellanox解决方案的特点相契合,比如金融服务中的股票买卖需要高速交易,要求业务系统具有低延 迟;在线售票公司等Web 2.0应用需要加速实时应用;云计算中心往往需要部署大量计算节点,需要高速的互连;这些应用对网络互连的特点,让Mellanox解决方案有了广泛的应 用空间。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章