11月13日-18日,2016全球超级计算大会(SC16)将在美国盐湖城举行。届时,来自全球各地的近万名高性能计算专家、学者以及产业界人士将涌入盐宫会议中心,交流和探讨超级计算机架构、性能、优化和加速,云和分布式计算,科学计算、异构计算等议题。
据悉,此次大会上浪潮整机柜服务器SR、InCloudRack云一体机和刀片系统I9000等产品将重装亮相,而内循环水冷高密度服务器及双级热管回路水冷服务器等先进水冷产品将惊艳首秀,此外浪潮还将发布数项神秘的重磅新产品。
尖端水冷+融合架构
在SC16上,浪潮将展示先进的水冷产品和融合架构产品两大系列。其中,首次亮相SC大会的4U8节点内循环水冷高密度服务器由两颗水泵串联冗余设计,CPU的热量直接传导至超低热阻的液冷板,再由流经液冷板的低温水将热量统一转移至后方的风-水热交换器,系统风扇驱动空气流经风-水热交换器,将热量置换并带出设备。其中内部水冷部件可根据配置需求灵活选配,并且各节点系统独立,方便单个节点运维。而NF5280M4双路服务器双级热管回路冷却方案采用了服务器双极热管回路系统与背板风冷相结合的冷却方案,可以利用重力驱动或者热压驱动,省去了水泵与接头,减少功耗与初始投资,并且利用微热管技术,将热量从机柜内导出再进行下一级换热,减少了对于服务器内部的改造。
整机柜服务器SR4.5
涵盖了整机柜、刀片的浪潮融合架构产品,是目前业界形态最丰富、节点最灵活的超融合服务器。其中作为浪潮面向公有云、大规模部署的数据中心产品,整机柜服务器SR4.5将首次亮相SC16。在集中供电、散热和管理、一体化交付的基础上,SR4.5基于硬件交换技术的池化,新增BBS(Battery Backup System)后备电池节点和至强D节点,实现从IT外围资源的集中到内部资源的重构和池化,进一步降低TCO。SR 4.5不仅针对互联网客户的大规模数据中心,同时还能应对传统行业客户的需求如分布式文件系统、Hadoop、超融合及冷存储等。
InCloudRack云一体机
InCloudRack云一体机则面向私有云及混合云、大数据、交易系统等,体现了浪潮对云计算基础架构的独特理解。该产品采用全模块化设计,拥有众多企业级RAS特性,包括刀片级稳定性,供电和管理等模块的冗余和热插拔设计;可实现2/4/8路以及MIC/GPU协处理加速、存储扩展节点等多节点混插,支持灵活的Scale-Out、Scale-Up多选择扩展。InCloudRack是全球首批支持英特尔RSD规范(Rack Scale Design)的产品,充分发挥了整机柜内部资源灵活部署和统一调度管理的特点,专为大规模部署复杂应用的企业级用户打造。
刀片系统I9000
刀片系统I9000继承了传统刀片处理器高密度、低功耗、易维护、易管理的特点,同时在密度和性能之间取得了平衡,针对关键业务、存储类应用、新兴应用以及特种应用进行优化,主要面向中小规模的企业用户。该产品支持2/4/8路堆叠,是业界唯一实现单刀箱双8路的刀片服务器,支持多种类型节点混插,并配有标准的背部扩展模块,支持无缝迁移至InCloudRack云一体机。
中外超算高峰论坛
在SC16期间,由亚洲超算协会和浪潮集团联合举办的第14届中外超算高峰论坛将在11月16日举行。该论坛每年定期举办三次,分别在德国ISC超算大会、美国SC超算大会和ASC世界超算竞赛期间召开,其宗旨在于探讨超算在前沿科学与工程领域的应用创新和发展趋势,推动全球超算的交流与合作。
在本届论坛上,日本科学最高学府理化学研究所、德国斯图加特超算中心、捷克IT4Innovations 国家超算中心、南非超算中心、国家超算无锡中心、国家超算广州中心以及美国俄亥俄州大学等世界级超算中心和知名学府将汇聚一堂,共同展望E级超级计算机。
KNL试用计划进展
在今年6月举行的国际超算大会(ISC2016)上,浪潮与英特尔联合推出了一项针对KnightsLanding(以下简称KNL)新一代处理器的试用体验计划(Knights LandingEvaluation and Escalation Program,简称KEEP),双方将共同建立基于全新KNL技术的、开放的高性能计算系统,帮助更多高性能计算和深度学习用户在KNL上完成应用测试、迁移及优化。
随着双方工程师团队完成了超过200TFlops计算能力的KNL测试系统的安装(后续目标扩容到超过700TFlops),KEEP计划也正式进入试用体验阶段。目前,已有天文数据处理、遗传算法、遥感图像处理、计算流体力学和气候预测等不同领域的用户参与KEEP计划。在SC16期间,浪潮与英特尔将首次对外公布部分用户在KNL集群上的移植经验和实际运行效率的报告。
另据悉,浪潮还将在SC16期间发布两款重磅神秘的新产品,目前,关于这两款新品尚未有更多消息露出,悬念需要在SC16大会上才能揭晓。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。