ZD至顶网服务器频道 04月12日 新闻消息:近日,浪潮与某气象客户紧密合作,完成了区域覆盖面积超500万平方公里、水平分辨率达1Km*1Km的高精度数值天气预报,为气象业务提供了更加精准的天气预报产品,达到了国内领先国际先进的水平。这项工作是在浪潮为该客户建设的天梭超级计算机上完成的,该超算拥有8640个处理器核心,是目前国内数值天气预报业务领域部署的基于x86技术的性能最高的超级计算机,将更好地服务于经济生产、人民生活和防灾减灾等。
浪潮完成500万平方公里1Km分辨率高精度数值天气预报
天气预报:更高精度、更大规模
该客户之前采用的气象业务化集合预报系统,该系统包含11个预报成员,每天完成2次集合预报(0点和12点),预报范围为当地及周边省市,覆盖全国20%~25%的区域,水平分辨率为3km。该预报系统包含前处理、同化、预报、后处理模块,预报4天的天气过程。每个预报成员分配一定数量计算节点进行运算,总耗时在2小时左右。
浪潮气象领域高性能计算专家在该预报系统的之前预报范围基础上增加了一层嵌套区域,将水平分辨率提高到1km,并可预报4天的天气过程。这一改动将增加运算的复杂度,而且计算规模也随之大增。经过浪潮专家的深入并行优化,使用浪潮超级计算机可将运算耗时可以控制在2小时30分钟,不仅能够给出更高精确度的预报结果,而且还能满足预报的时效性。
针对该系统中的高分辨率大规模短期预报(12小时),浪潮超级计算机完成了水平位网格数为2400*2100的1km高精度数值模拟,这一精度的覆盖范围达到504万平方公里,超过中国一半以上的国土面积。在这一超大规模预报模式下,浪潮专家成功将并行规模扩展到8192处理器核心上,并达到近乎线性的加速效率,运行时间耗时大约2.4小时。
超级计算:更低功耗、更强性能
之所以能够支撑更高精度、更大规模的气象数值预报,除了在算法方面的改进和优化外,也得益于浪潮超算系统的优秀设计,并实现了更低功耗、更强性能。
浪潮为客户构建的超级计算机采取刀片+胖节点+高速IB网络的解决方案,峰值计算性能达数百万亿次。同时水冷方案设计相比传统风冷系统节能20%以上,使PUE值大幅降低,实现了绿色超算,做到了高性能与低能耗的融合。
高密度、高性能刀片节点:在高性能计算中,为了节省空间、降低能耗、简化管理,采用刀片服务器已是大势所趋。浪潮为客户设计的超级计算机采用浪潮英信NX5440M4服务器,在8U的空间内可扩展20个计算节点,超高的计算密度为用户后期扩展带来方便。
更高效率、更低延迟:若把强大的计算资源比作"资源仓库",有了高速便捷无拥堵的"路",才能把资源利用到极致。浪潮采用648端口全线速无阻塞核心Infiniband交换机,很好地实现了高速率与低延迟,让计算性能得到充分发挥。
全密闭水冷,冷却效率超95%:水冷相对于风冷方式,具有绿色环保,能效比高的优势,不仅大大的节省了用户的空间,也可以优化用户的成本。浪潮根据机房实际条件,采用IT数据中心专用冷水机组,内置自然冷却模块,利用水侧自然冷却实现节能降耗,冷水机组内置低温套件,实现-20℃~+43℃的全工况启动与运行,可以适应冬季时的极低气温环境,同时针对高密度负荷服务器机柜配置高性能机柜级水冷空调,提高冷冻水供水温度至15℃,进一步实现节能增效。整体制冷方案采用密闭机柜级制冷,冷却效率超过95%。
目前,依托高效能服务器和存储技术国家重点实验室、Inspur-Intel中国并行计算联合实验室、Inspur-NIVDIA云超算创新中心等全球领先的研发创新体系,浪潮拥有从万亿次到千万亿次的超级计算机产品研发、系统建设、运维服务能力,拥有完备的HPC软硬件产品线及丰富的应用移植、应用优化经验,为中国气象预报、环保监测、高校科研、石油勘探、生命基因、工业制造等众多行业用户提供了领先优质的超算系统与应用服务,实现了国产高性能计算机系统的海外出口产业化。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。