扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共3页)
Apollo:专注于细分HPC市场方案级系统平台
惠普是当前全球最大的服务器厂商,这其中在业界主流的x86领域,惠普与之应对的就是“工业标准服务器”(ISS,Industry Standard Server)。顾名思义,x86已经成为了业界的工业标准,并且也是开放的、通用的。它不同于传统的UNIX服务器,相关的厂商技术体系是独立而封闭的,厂商完全可以按照自己的想法来设计服务器,进而不断强化并突显自己的竞争优势。但在x86平台上,80%的核心组件已经是标准化,你很难再做出某种“我有你无”的服务器,但反过来,如果你真的做到了,也将在“标准化的产品海洋”中脱颖而出。在我看来,惠普最新的Apollo高性能计算系统即属此列。
惠普在x86服务器领域的领导地位毋庸置疑
高性能计算(HPC)在很多人看来是一种“高大上”的应用,印象中更多的是那些国家级实验室与大型企业的专属系统,但是我们不能否认的一个事实则是计算越来越普遍 。
随着人类社会的不断演进,信息化程度越来越高,很多时候计算已经不再那些科研前沿的专利,对于信息本身的处理也越来越需要强大的 计算能力。一个相近的典型例子就是大数据,从某种角度上讲,大数据分析也可以算是HPC的一个分支,而越来越多的商业公司也正在重视HPC在其业务中的重要性。可是,当这类企业准备采购HPC系统时,就会发现现有的HPC系统 似乎并没有为他们这类用户做好准备。在很多情况下,要不就是现有的HPC系统的能力对于这类中小型需求明显浪费,要不就是习惯了高级技术人员伺候的HPC系统让这类客户望而却步, 又或者是现有HPC系统的采购或运维成本让他们难以承受。渐渐的,这种间隙成为了商业HPC系统细分市场不断扩大的基础,从而也就促成了惠普Apollo系统的诞生。
惠普全球服务器高性能计算业务开发部部门经理Ed Turkel,对此进一步表示,“我们谈到高性能计算的发展,实际上是研究了不同的工作任务得出来的。当人们想到HPC的时候,他们通常理解的是针对政府和学术界的高性能计算。但实际上HPC可以被应用到不同的行业,比如电子设计、金融服务、汽车,甚至有一些电影行业的3D设计都在使用HPC技术。当我们研究了HPC不同的细节应用以后,发现所有的应用都集中需要更好的性能。随着计算扩展的范围越来越大,我们可以看到更多的客户对单位面积的效率和能耗有了更高的需求。同时,我们发现HPC领域需要更广泛的兼容性和可访问性,因为更多客户要求更简洁的系统以便更好的管理,他们同时希望一些新的业务需求和想法也都可以快速地实现。为了更好地加强HPC行业的发展,今天我们郑重地发布了惠普Apollo产品。”
惠普全球服务器高性能计算业务开发部部门经理Ed Turkel表示,Apollo系统是惠普工业标准服务器在HPC领域的专注创新的成果
首批发布的Apollo系统包括两大系列——Apollo 6000与Apollo 8000,从字面上就能知道后者更为强大,但事实上两者的定位有明显的不同。Ed Turkel首先强调,“这两个产品都是专门为高性能计算领域量身定制的。我们不光提高自身计算的性能,也为客户在更创新的性能上提高了更多可能性。惠普Apollo系统可以在原来同等面积下,每平方英尺中提供4倍的浮点运算能力,以在更高的性能上快速获取结果。同时我们致力于效率最大化,包括两个方面,一是最大化地提升能耗的效率,二是我们在有限的机架中提高更多的计算密度,实际上我们是在每个机架上可以提供四倍的密度。同时我们还致力于把HPC方案的可扩展性、可应用性提高到最大。正是考虑到用户的类别与差异性,Apollo系统有着极大的可扩展性,可以满足不同类型与规模用户的应用需求。”
Apollo 6000系统和其主要的组成,它的主要功能组件都是专门研发的,包括专用的服务器机箱、高密度服务器与池化电源模块,并最终以一个方案级的系统统一交付给用户,而非是采用 现有的ProLiant服务器堆加而成。Apollo 6000的服务器机箱为5U设计,第个机箱满配10台ProLiant XL220a服务器,每台服务器内含两个单路处理节点(未来有双路型号),每单路节点配32GB内存,整个机柜满载8个机箱,80个ProLiant XL220a服务器,160个单路 计算节点
Apollo 6000系统另辟蹊径,第一期服务器采用单路至强E3处理器,强调单线程高性能计算性能,主攻电子设计自动化(EDA,Electronic Design Automation)与金融风险控制领域
Apollo 6000系统是一个风冷系统,以完全模块化的设计为原则,以整机系统交付用户使用,在这一系统中的重点功能组件都是重新开发的。第一期的产品是基于英特尔至强E3的单路服务器(E3-1200v3),为此专门设计了ProLiant X220a服务器,每台服务器内具备两个E3-1200v3节点(处理器含2或4个核心)。在未来,还将有两路的型号,届时一台ProLiant X220a就是一个双路节点。而10台ProLiant X220a为一组纳入一个Apollo 6000机箱,这个机箱与刀片服务器很像,但它并没有电源模块。Apollo 6000采用独立的集中式电源模块,被称为“池化电源”,两个电源模块给整个机柜共8个服务器机箱进行供电,而整体系统的单机柜可提供160个单路节点的计算密度。由于它的设计原则就是针对强调单线程性能的HPC场景,与原有强调多线程并行计算的领域有了明显的区隔,因此也可以看出惠普对新兴的HPC细分市场的一种重视。
据Ed Turkel透露,Apollo 6000系统的第一个客户就是至强E3处理器的提供者——英特尔公司,其CIO Kim Stevenson对Apollo有着如此的评价:在电子设计自动化应用程序工作负载上,我们看到35%的性能提升。我们已经部署了5000多台这样的服务器,实现了更好的机架密度和功率效率 ,同时为英特尔硅片设计工程师提供更高的应用程序性能。对此,Ed Turkel进一步补充到,“原来英特尔EDA部门的服务器基本上用的是刀片服务器40000多个,我们通过用15000台的Apollo 6000服务器替换过来,使客户实现了更好的机架密度、功率密度,同时在使用中提供了更简单的方法,帮助英特尔EDA部门更好地设计微型处理器。”
与6000相比,Apollo 8000系统明显更为“主流”一些,它所针对的市场就是大多数人所能想像并理解的典型HPC应用,但在具体的设计 上它并不传统,这也让其具备了更为明显的独特性。Ed Turkel强调Apollo 8000是业界第一个100%液态制冷的HPC系统,之所以说是液态而不是水冷,是因为它所用到的制冷媒介并非全部是水,所以从严格的定义来讲就是“液态制冷”,而这其背后有着多项的创新。
一套Apollo 8000系统至少由两个机柜组成,我们可以理解为一个是计算节点机柜(f8000),一个是制冷机柜(iCDU),后者最多可以支撑4个f8000机柜,高度均为52U。Apollo 8000系统创新性的采用独立的电源供给单元(机柜中间部分),以求达到最佳的能耗与功率控制效果,也进一步提高了系统的能效,而独立的制冷分配单元(CDU,Cooling Distribution Unit)也保证了系统的综合冷却效果(位于iCDU机柜的下半部分,上半部的26U空间可以用于装载IT设备,如计算或连接模块)
与Apollo 6000一样,8000的重点功能组件也是重新设计的,ProLiant XL730f服务器内置两个双路计算节点(采用至强E5-2600 v3处理器,每个节点256GB内存并配有一块SFF SSD),在1U的全宽机架内包含两台ProLiant XL730f服务器,一个f8000机柜中最多可装载72台ProLiant XL730f服务器(另外8个槽位留给InfiniBand交换机模块),共144个双路计算节点,目前采用NVIDIA Tesla与英特尔经Xeon Phi的加速处理模块也已经推出
Apollo 8000目前可能提供超过250万亿次浮点运算/机架的计算性能,是目前传统HPC系统的4倍,而通过惠普自己的制冷专利,只需温水(不超过30摄氏度)即可满足散热要求,这对于后续的运营成本有着巨大的好处。Ed Turkel表示,“温水制冷系统可以帮助客户每年节约100万美元以上的运营成本,这种节约可以持续超过5年以上。这个能耗的节约如果转换成二氧化碳的排放量,可以看到每年减少3800吨的二氧化碳的排放,对整个环境的贡献可想而知。所以,我想再次强调,惠普Apollo 8000的发布对推进整个超级计算领域包括达到下一代计算标准起到了关键的作用。”
不过,刚才说是液态制冷,现在又说是温水,那么到底是怎么回事呢?现在我们有必要来深入了解一下Apollo 8000的液态制冷的原理。中国惠普企业集团工业标准服务器产品部产品市场总监温洁,对此总结到——Apollo 8000系统由内至外,实际上有着三层液态循环系统,将热量逐级的导出,并可带来附加的利用,而这其中也有多项惠普的专利创新。
在ProLiant XL730f服务器中,每个处理器模块上方都有一个封闭的导热管回路,管中封装的并不是水,而是类似于空调里所用的制冷剂,它与服务器内部的组件干式接触,不用担心水浸的问题发生,导热管完成了第一层循环
在f8000机柜中,两台ProLiant XL730f服务器之间就是水墙冷却通道,服务器与水墙之间采用专门的散热夹层衔接
服务器间的水墙由iCDU控制进行循环,冷水从机柜底部注处,热水则从顶部抽出,完成第二层循环,iCDU机柜可最多 支持4个f8000机柜的制冷与散热
在第三层循环中,iCDU会把热水导出系统(数据中心),在室外进行冷却,普通的冷却塔即可满足要求,而在冬天,Apollo 8000系统所产生的“热水”还可以给建筑物进行供热,一举两得,进一步节约了能源消耗
温洁表示,“Apollo 8000系统对水质并没有特殊的要求,符合美国采暖、制冷与空调工程师学会(ASHRAE,American Society of Heating Refrigerating and Airconditioning Engineer)的标准即可,而水温只需要限定在30摄氏度以下,这对于中国地域来说,基本均可满足要求。”不过她强调,Apollo 8000系统可能会对现有的数据中心提出挑战,因为这种制冷设计非常新颖,现有的很多数据中心可能都需要改造,但条件其实也比较容易满足——有可靠的供、排水系统以及室外的冷却塔,就可以部署Apollo 8000,这方面中国惠普的技术支持团队可以提供具体的服务。
部署在NREL内的Apollo 8000系统与其所带来的收益,称Apollo 8000为绿色HPC系统并不过分
对于正在规划的数据中心,或者打算在某种特定的室内环境中使用,Apollo 8000则就是一个非常便于部署的HPC系统。目前Apollo 8000的一个最为典型的用户就是其第一个用户——美国国家再生能源局下属的国家再生能源实验室(NREL,National Renewable Energy Lab),它把Apollo 8000部署在了自己的办公大楼里。Ed Turkel表示,前面所讲到的那个成本优势就是来自于美国国家再生能源局局长的表述,Apollo 8000系统可以帮助他们每年节省100万美元的能源支出。这些能源支出由两部分组成,一部分是我们帮助他们节省了制冷的成本,另外系统产生出来的热水我们还能帮助他们再次利用,从而节省了供热能源的开支——“这套Apollo 8000的PUE可以在5年内持续稳定在1.06,并不会因为时间的推移而升高(目前主流的风冷方案会随时间的累积而使PUE逐渐提升),还可将185000平方英尺的办公室供热系统作为其冗余的散热循环。”
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者