至顶网服务器频道 06月26日 新闻消息(文/刘新萍): 6月25日,2018年国际超级计算机大会(ISC)在法兰克福盛大召开,在最能体现厂商整体实力的全球高性能计算TOP 500榜单中,联想以117套的份额成为首家在该榜单中问鼎全球第一的中国厂商。同时,这也意味着联想已经成为全球最大的TOP500超算平台提供商,约每四套系统中就有一套来自联想的解决方案(23.4%)。
联想数据中心业务集团总裁Kirk Skaugen表示:"去年,我们设定了一个目标,即到2020年成为全球最大的TOP500超算系统提供商。现在,我们提前两年实现了这一目标。我们始终以客户满意度为最高要求,致力于提供尖端创新的产品和性能,旨在成为全球最值得信赖的数据中心合作伙伴。这一成绩是对我们不懈努力的最好证明。每一天,科学家们的突破性研究都在不断激励着我们,推动我们共同努力解决人类面临的最严峻挑战。"
联想的高性能计算客户群广泛多样。目前,全球排名前25位的研究型大学和机构中,有17家正采用联想全面的HPC和AI解决方案来进行研究。此外,联想还在全球160多个国家开展众多领域的突破性研究,这些领域包括癌症、大脑研究、天体物理学、人工智能、气候科学、化学、生物学、汽车和航空等等。
联想的创新型超级计算机系统设计及其支持的研究示例包括:
• 中国:北京大学 - 中国第一台使用联想DTN(Direct to Node)温水水冷技术的超级计算机;科学家们正在使用联想系统进行世界领先的生命科学和遗传学研究。
• 意大利:CINECA - 意大利最大的计算中心;Marconi超级计算机是世界上速度最快的节能型超级计算机之一;研究项目范围从精密医学到自动驾驶汽车,非常广泛。
• 加拿大:SciNet - 加拿大最强大的超级计算机Niagara的所在地;同类产品中最先利用蜻蜓型拓扑;研究人员可以获得3 petaflops的处理能力,帮助他们了解气候变化对海洋环流的影响。
• 德国:Leibniz-Rechenzentrum(LRZ) - 德国慕尼黑超级计算中心;联想的DTN(Direct to Node)温水散热技术已经将设备能耗降低了40%;科学家进行地震和海啸模拟,以更好地预测未来的自然灾害。
• 西班牙:巴塞罗那超级计算中心 - 西班牙最大的超级计算机;被DatacenterDynamics评选为"全球最美数据中心";科学家们正在使用人工智能模型来改善视网膜疾病的检测。
• 印度:液态推进系统中心(LPSC) - 研究和发展中心隶属于印度空间研究组织;使用联想的DTN(Direct to Node)温水散热技术来开发下一代地球至轨道技术。
• 丹麦:VESTAS - 丹麦最大的超级计算机;HPCwire"读者选出的高性能数据分析最佳使用奖"获得者;Vestas致力于通过收集和分析数据,帮助客户选择风力发电设备的最佳场所,从而提高风能生产的效率。
联想数据中心业务集团总裁兼HPC和AI部门总经理Madhu Matta表示:"联想拥有行业领先的能力,能够实现最大规模和最高性能的深度创新,与客户合作设计满足其计算能力需求的超级计算系统。这种灵活性和客户至上的态度,使我们能够在高性能计算和人工智能市场的未来发展中保持良好的势头。"
为了进一步帮助客户提高性能,同时降低电力消耗,本周在国际超级计算大会上,联想还宣布推出了Neptune。这是其针对液体冷却技术的全面三重方法。Neptune包含了该公司的整套液体冷却技术,其中包括联想的Direct to Node(DTN)温水散热、后门热交换器(RDHX)和混合传热模块(TTM)解决方案,这些解决方案结合了空气和液体冷却技术,能够为HPC、AI和企业客户带来卓越性能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。