HPC China2019:专家云集、思想碰撞--第七届中国高性能互联网络论坛成功举办 原创

2019年8月21-24日,以“计算 见智 赢未来”为主题的第十五届全国高性能计算学术年会在内蒙古自治区呼和浩特市举办。在8月23日下午,此次年会上同时还召开了专门面向高性能互连网络的架构、技术及应用的第七届中国高性能互联网络论坛。

至顶网计算频道 08月23日 新闻消息(文/任新勃): 2019年8月21-24日,以“计算 见智 赢未来”为主题的第十五届全国高性能计算学术年会在内蒙古自治区呼和浩特市举办。此次年会由中国计算机学会主办,中国计算机学会高性能计算专业委员会、内蒙古和林格尔新区管理委员会、清华大学、内蒙古大学承办,北京并行科技股份有限公司协办。全国高性能计算学术年会是世界三大高性能计算学术年会之一,这是中国高性能计算领域规模最大的融合学术、技术、产业为一体的年度盛会。

当前全球超级计算机的竞争日趋激烈计算能力和网络规模迅猛增长,高性能互连网络技术愈发重要。在8月23日下午,此次年会上同时还召开了专门面向高性能互连网络的架构、技术及应用的第七届中国高性能互联网络论坛。邀请了国内外著名大学、研究机构及企业的专家学者,分享工业界实际部署经验和当前学术界研究结果,深入探讨高性能互连网络下一步的应用和发展方向。包括来自AWS、 Mellanox、阿里、华为、清华、凌云等国内外企业和高校将分享Elastic Fabric Adapter (FA) High Precision Congestion Control (HPCC、In-Network Computing等领域的最新进展和动态。 

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

日本RIKEN计算科学中心主任Satoshi Matsuoka教授,分享了A64kx和Fugaku-A改变游戏规则,HPC / AI优化的ARM CPU,实现Exascale(百亿亿次)性能。

Satoshi Matsuoka从2018年4月起成为日本RIKEN计算科学中心主任,,目前主持K计算机并开发下一代基于ARM的'Fugaku'超级计算机,以及众多持续前沿正在进行HPC研究,包括调演讲后摩尔时代的计算。 他还是东京工业大学TSUBAME系列超级计算机的领导者,目前担任教授职位,继续HPC可扩展的大数据和人工智能的研究活动。

Fugaku是由Riken R-CS和富士通合作开发的旗舰下一代全国超级计算机。 Fugaku具备单个机器百亿亿次浮点的性能。拥有超过150,000个服务器级别的富士通A64fx多核ARM CPU的节点,新的SVE(Scalable Vector Extension可扩展矢量扩展)是基于首次低精度数学运算,通过HBM2内存与每个CPU来加速HPC和Al工作负载。实现HPC和Al快速数据移动。基于A64fx架构的HPC工作负载是"Platinum"服务器CPU性能的8倍,这种改变游戏规则的性能已经涉及整个日本HPC社区的广泛协同设计过程实现,从而实现了高度优化CPU架构的HPC。

Fugaku可能成为大数据和AI / ML应用的主要基础设施; Satoshi Matsuoka介绍他们正在研究,将Fugaku扩展到的超过100000个节点,并在在每个节点上获得接近顶级的GPU级性能。同时A64fx / Fugaku通过软件生态系统的努力,以实现高端HPC / BD / Al能力。Fugaku用于AI训练数据的HPC通过并行训练来实现数据加速运行。

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

来自AWS的技术专家Raghu Raja分享了《Elastic Fabric Adapter在AWS上扩展HPC应用》。高性能计算长期以来一直是专业超级计算机的领域,旨在运行紧密耦合的并行工作负载。 网络已成为可扩展超级计算机和松散耦合集群之间的差异化因素。

AWS拥有自动化和编程、存储、计算、可视化和网络等HPC解决方案组件。亚马逊网络服务最近推出了弹性结构适配器(EFA),支持大规模,紧密耦合的HPC工作负载所需的属性与灵活的计算模型相结合,这使得云计算在企业工作负载中如此受欢迎。

Raghu Raja同时分享了EFA早期和现在的性能和扩展特性与实际应用。详细介绍了AWS上HPC解决方案的广度,描述了最近在EFA中达到顶峰的EC2网络的演变,并讨论了EFA的内部和功能及其基础可扩展可靠数据报(SRD)传输协议以及EFA的软件生态系统

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

Mellanox公司亚太及中国区市场开发高级总监宋庆春分享了InfiniBand网络计算技术和路线图。

通过网内计算将数据中心互连转变为“分布式CPU”和“分布式内存”,可以提升性能,实现更快,更可扩展的数据分析。 宋庆春介绍了HDR 200G InfiniBand网内计算技术,包括可伸缩扩展的分层聚合和缩减协议(SHARP),智能标记匹配和渲染协议等多种元素。这些技术已在全球一些大型超级计算机上使用,包括顶级TOP500平台。 最后宋庆春详细Infini Band In-Network计算技术和性能结果,以及对未来路线图的展望。

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

阿里巴巴技术专家缪睿博士发表了《HPCC:高精度拥塞控制》的主旨演讲。他谈到拥塞控制(CC)是在高速网络中实现超低延迟,高带宽和网络稳定性的关键。现有的高速CC方案在实现这些目标方面具有固有的局限性。缪睿谈到HPCC(高精度拥塞控制),是一种新的高速CC机制,可同时实现三个目标。

HPCC利用网内遥测(INT)获取精确的链路负载信息并精确控制流量。通过解决诸如拥塞期间延迟的INT信息和对INT信息的过度反应等挑战,HPCC可以快速收敛以利用空闲带宽同时避免拥塞,并且可以维持接近零的网内队列以实现超低延迟。 HPCC易于部署在硬件中。通过使用商用可编程NIC和交换机就可以实施HPCC。缪睿谈到通过评估中,与DCQCN和TIMELY相比,HPCC将流动完成时间缩短了95%,同时还实现了在大规模进入时几乎没有堵塞。

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

北京凌云光技术集团,解决方案部总监张华,负责光纤通信领域的高端解决方案制定和市场推广工作。他分享了《光交换技术在超算和数据中心应用探讨》的主题演讲。

随着云计算,AI,5G等应用的蓬勃兴起,对超算中心和数据中心延迟,带宽,灵活性等提出了更高的要求,超算和数据中心的交换能力和方式也面临新挑战。凌云光扎根光纤技术在电信通信、数据通信、科学通信、光纤激光和光纤传感五大应用领域下,基于光线路交换如何解决新形势下超算和数据中心面临的各种挑战。通过引入光交换在内的光互联技术,包括提升光电交换效率降低延迟和功耗,通过光子集成技术提升集成度和密度,进一步减少设备体积并降低成本。

张华谈到通过全光交换和SDN紧密结合,支持动态网络实施重构,以及通过降低交换功耗和成本,增加设备使用效率,来实现OCS逐渐应用与光层自动化/虚拟化各种场景中。

最后他总结目前光线路交换技术已经成熟可靠而且已经规模商用化,性价比好,非常适合光层动态连接建立,基于SDN统一控制平面技术,可以集中控制光线路交换机快速配置和重构光层路由。采用全光路交换,可实现稳定可靠的远程灵活路由选择,在线性能监测,以及自动链路保护等,将会给超算和数据中心在延迟、吞吐量、功耗、成本方面带来显著收益。

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

王冬洋于2019年加入华为公司分布式与并行软件实验室。他的研究方向包括数据中心网络,系统虚拟化,RDMA 等等。 他分享了《公有云中基于RDMA的虚拟Socket接口的主题报告》。

RDMA作为一种高性能网络解决方案被广泛使用,然而公有云中大量的基于Socket的应用无法利用RDMA的优势,王冬洋谈到主要是由于两方面的原因:

一,缺少能满足共有云需求的RDMA虚拟化方案;

二,使用RDMA API改写Socket程序会带来巨大的开销。

为了解决上述问题,华为提出vSocket -- 专用于公有云中Socket应用的软件RDMA虚拟化框架。vSocket方案满足共有云所需的安全规则、网络隔离等需求,可以部署在公有云环境中。此外,vSocket还提供原生的Socket接口,Socket应用无需任何修改即可使用。

华为基于vSocket的原型并采用基准测试程序和Redis应用对其进行性能测试。测试结果表 明,和当前的网络解决方案相比,vSocket方案的基准测试程序的延迟下降了88%,Redis的吞吐率提升了4倍。

最后的演讲嘉宾是来自清华大学计算机科学与技术系特别研究员,博士生导师陆游游,他分享了《可靠连接的可扩展RDMA RPC与高效的资源共享》的主题报告,他主要研究领域包括非易失性存储、文件系统及分布式系统,其发表的FAST 2013论文中所提基于裸闪存架构(后被称为Open-Channel SSD)及软硬件协同的闪存 存储设计方法已经在工业界得到广泛关注和采纳。

他谈到目前RDMA为分布式系统提供极低的延迟和高带宽。但是,在可靠连接(RC)上将数据传输到越来越多的目标时,它无法扩展并且性能下降。他们研究小组发现可伸缩性问题的根源在于NIC缓存,CPU缓存和每个服务器的内存中的资源争用。因此提出ScaleRPC,一种有效的RPC原语,在可靠连接上使用单侧RDMA动词来提供可扩展的性能。

为了有效缓解资源争用,ScaleRPC引入了:

1)连接分组,将网络连接组织成组,以平衡网卡缓存的饱和和颠簸;

2)虚拟化映射,以使单个消息池能够由不同的连接组共享,从而减少CPU缓存未命中并提高内存利用率。

这种可扩展的连接管理提供了显着的性能优势:通过在分布式文件系统和分布式事务系统中部署ScaleRPC,发现能够实现了高可伸缩性,并分别提高了性能,高达90%和160%,用于元数据访问和SmallBank事务处理。

后记,笔者参加过数次中国高性能计算学术年会,作为世界三大高性能计算学术年会之一,今年已经是第15届。在我看来,这不仅是技术的盛会,也是有情怀的盛会,自2005年举办以来,足迹已经遍布全国各地,为中国高性能计算发展做出了不可磨灭的贡献。

HPC China2019:专家云集、思想碰撞——第七届中国高性能互联网络论坛成功举办

同期CCF高性能计算专委会新一届专委领导机构八月二十一日在内蒙古呼和浩特选举产生。荣誉主任:孙凝晖;主任:漆锋滨;副主任:金海,迟学斌,莫则尧,卢凯;秘书长:张云泉。


 

来源:至顶网计算频道

0赞

好文章,需要你的鼓励

2019

08/23

23:44

分享

点赞