ZD至顶网服务器频道 04月12日 新闻消息:近日,浪潮与某气象客户紧密合作,完成了区域覆盖面积超500万平方公里、水平分辨率达1Km*1Km的高精度数值天气预报,为气象业务提供了更加精准的天气预报产品,达到了国内领先国际先进的水平。这项工作是在浪潮为该客户建设的天梭超级计算机上完成的,该超算拥有8640个处理器核心,是目前国内数值天气预报业务领域部署的基于x86技术的性能最高的超级计算机,将更好地服务于经济生产、人民生活和防灾减灾等。
浪潮完成500万平方公里1Km分辨率高精度数值天气预报
天气预报:更高精度、更大规模
该客户之前采用的气象业务化集合预报系统,该系统包含11个预报成员,每天完成2次集合预报(0点和12点),预报范围为当地及周边省市,覆盖全国20%~25%的区域,水平分辨率为3km。该预报系统包含前处理、同化、预报、后处理模块,预报4天的天气过程。每个预报成员分配一定数量计算节点进行运算,总耗时在2小时左右。
浪潮气象领域高性能计算专家在该预报系统的之前预报范围基础上增加了一层嵌套区域,将水平分辨率提高到1km,并可预报4天的天气过程。这一改动将增加运算的复杂度,而且计算规模也随之大增。经过浪潮专家的深入并行优化,使用浪潮超级计算机可将运算耗时可以控制在2小时30分钟,不仅能够给出更高精确度的预报结果,而且还能满足预报的时效性。
针对该系统中的高分辨率大规模短期预报(12小时),浪潮超级计算机完成了水平位网格数为2400*2100的1km高精度数值模拟,这一精度的覆盖范围达到504万平方公里,超过中国一半以上的国土面积。在这一超大规模预报模式下,浪潮专家成功将并行规模扩展到8192处理器核心上,并达到近乎线性的加速效率,运行时间耗时大约2.4小时。
超级计算:更低功耗、更强性能
之所以能够支撑更高精度、更大规模的气象数值预报,除了在算法方面的改进和优化外,也得益于浪潮超算系统的优秀设计,并实现了更低功耗、更强性能。
浪潮为客户构建的超级计算机采取刀片+胖节点+高速IB网络的解决方案,峰值计算性能达数百万亿次。同时水冷方案设计相比传统风冷系统节能20%以上,使PUE值大幅降低,实现了绿色超算,做到了高性能与低能耗的融合。
高密度、高性能刀片节点:在高性能计算中,为了节省空间、降低能耗、简化管理,采用刀片服务器已是大势所趋。浪潮为客户设计的超级计算机采用浪潮英信NX5440M4服务器,在8U的空间内可扩展20个计算节点,超高的计算密度为用户后期扩展带来方便。
更高效率、更低延迟:若把强大的计算资源比作"资源仓库",有了高速便捷无拥堵的"路",才能把资源利用到极致。浪潮采用648端口全线速无阻塞核心Infiniband交换机,很好地实现了高速率与低延迟,让计算性能得到充分发挥。
全密闭水冷,冷却效率超95%:水冷相对于风冷方式,具有绿色环保,能效比高的优势,不仅大大的节省了用户的空间,也可以优化用户的成本。浪潮根据机房实际条件,采用IT数据中心专用冷水机组,内置自然冷却模块,利用水侧自然冷却实现节能降耗,冷水机组内置低温套件,实现-20℃~+43℃的全工况启动与运行,可以适应冬季时的极低气温环境,同时针对高密度负荷服务器机柜配置高性能机柜级水冷空调,提高冷冻水供水温度至15℃,进一步实现节能增效。整体制冷方案采用密闭机柜级制冷,冷却效率超过95%。
目前,依托高效能服务器和存储技术国家重点实验室、Inspur-Intel中国并行计算联合实验室、Inspur-NIVDIA云超算创新中心等全球领先的研发创新体系,浪潮拥有从万亿次到千万亿次的超级计算机产品研发、系统建设、运维服务能力,拥有完备的HPC软硬件产品线及丰富的应用移植、应用优化经验,为中国气象预报、环保监测、高校科研、石油勘探、生命基因、工业制造等众多行业用户提供了领先优质的超算系统与应用服务,实现了国产高性能计算机系统的海外出口产业化。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。