至顶网服务器频道 12月19日 新闻消息(文/刘新萍): 2017年12月14日,联想数据中心业务集团携手英特尔,为德国慕尼黑巴伐利亚科学院(Bavarian Academy of Sciences)的莱布尼茨(Leibniz)超级计算中心打造下一代超算系统。该系统包括将近6500个节点,节省能耗超过45%,建成后将为德国最大的超级计算中心莱布尼茨提供26.7PETAFLOPS的计算能力,以助其应对在环境、天体物理和生物学等方面的关键研究挑战。 其中,联想的第2000万台服务器也在新系统中成功交付。
提供强大计算保障,加速关键研究进展
莱布尼茨超级计算中心是欧洲最著名的超级计算中心之一,主要面向科研和学术机构的专业人员。该超算中心不仅需要管理海量的大数据,而且需要高性能计算来快速处理和分析这些数据,以加速全球各种研究计划的进展。例如,莱布尼茨超级计算中心最近完成了全球规模最大的、对地震及由此引发的海啸的模拟,包括苏门答腊-安达曼地震等,这项研究支持实时情景规划,有助于预测余震及其他地震灾害。
到2018年末部署完成之际,该项名为SuperMUC-NG的超算系统将可以提供卓越可用性、安全性和能效的高性能计算(HPC)服务。基于满足多种科学计算应用需求而优化的业界领先技术,该系统将为莱布尼茨超级计算中心提供横跨天体物理、流体力学、生命科学等各种复杂领域的科学研究支持。值得一提的是,新系统还将包括联想交付的第2000万台服务器,这是联想在数据中心领域发展历史上的一个重要的里程碑事件。
联想数据中心业务集团全球高性能计算与人工智能技术高级总监Scott Tease(右一)
联想数据中心业务集团全球高性能计算与人工智能高级总监Scott Tease表示:"联想不仅为像莱布尼茨超级计算中心这样的研究机构提供超强计算能力,还提供真正端到端的解决方案,以帮助这类机构应对社会化挑战。SuperMUC-NG将为莱布尼茨超级计算中心提供更强的计算能力,并可减小所需占用的数据中心面积,同时通过创新的水冷技术,显著降低能耗。它将为研究人员提供一个全面的超级计算解决方案,协助他们以前所未有的高性能加速关键研究项目的进展。"
SuperMUC全景,摄影:Johannes Naumann
鱼与熊掌兼得,SuperMUC-NG成就低能耗高效率
SuperMUC-NG包括将近6500个节点,由联想最近推出的下一代ThinkSystem SD650服务器组成,这些服务器采用Intel? Xeon?铂金级处理器和Intel Advanced Vector Extensions(Intel AVX 512)技术,并通过Intel? Omni-Path架构实现互连,新系统可提供惊人的26.7 petaflop计算能力。该系统还将集成联想强大的、GUI简便易用的管理套件Lenovo Intelligent Computing Orchestrator(LiCO)以及基于云的组件,这不仅有助于加速HPC和AI应用的开发,还使莱布尼茨超级计算中心的研究人员能够自由地虚拟化和处理海量数据集,并迅速与同事分享计算结果。
基于英特尔的技术优化和尖端的联想水冷技术,新的SuperMUC-NG超算系统解决了进行高密度天文计算时,高性能计算基础设施导致的运维支出难题。联想水冷技术与Lenovo Energy Aware Run-Time(EAR)软件相结合,可在保持应用正常运行的同时,显著降低系统基础设施功耗。与类似的标准风冷系统相比,联想全面的水冷技术使莱布尼茨超级计算中心节省45%以上的电力消耗。总体说来,这些能效创新将有助于进一步减少该中心的碳消耗,并降低其总体拥有成本。
英特尔公司技术计算副总裁Trish Damkroger表示:"像莱布尼茨超级计算中心这样的全球领先研究机构正在提升洞察力,以解决人类面临的一些最复杂的问题,同时显著改善人们的生活。英特尔提供的技术支持与联想的解决方案专长相结合,可提供高性能和易编程性,帮助莱布尼茨超级计算中心的研究人员利用该系统进行比以往更加深入的分析,进而产生更多科学发现。"
作为全球HPC领军企业,联想HPC产品和解决方案行业覆盖广泛,具有低能耗高效率的特点,在各类实践中逐步体现出高可靠性和高可用性优势。联想已经连续四届斩获HPC TOP500中国第一、全球第二,预计莱布尼茨超级计算中心的SuperMUC-NG系统一旦投入运行,将登上全球超级计算机500强(TOP500)榜单,为联想数据中心业务再增荣光。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。