至顶网服务器频道 05月03日 新闻消息: 为了给航天科学研究提供高性能计算能力的支撑,哈尔滨工业大学(以下简称:哈工大)航天学院于近期启动了高性能计算项目,并部署了基于浪潮英信服务器NF5280M5的高性能计算解决方案。系统不仅在性能满足了哈工大航天学院在现阶段的高性能计算需求,而且还具有极高的扩展性与成本效益,为航天科研提供了稳健的支撑。
尖端航天科技背后的高性能计算
哈工大由中华人民共和国工业和信息化部直属,中央直管副部级建制,位列双一流、211工程、985工程,享有"工程师的摇篮"之美誉。其中,哈工大航天学院是国内航天主干学科最为齐全、规模最大的航天学院,承担着包括国防重大基础研究课题在内的多项研究课题。
随着中国航天航空事业的快速发展,哈工大航天学院承担了越来越多的科研任务,CFD(计算流体力学)数值模拟研究等应用对于计算系统的性能提出了越来越多的需求,常规的计算能力远远无法满足复杂的科研任务所带来的巨大需求。为满足航天科研整体理论峰值动辄每秒百亿次以上的浮点运算能力需求,哈工大航天学院要求采用异构化计算节点的方式。
此外,哈工大航天学院还要求高性能计算系统具备足够的成本敏捷性与扩展性:基于降低成本压力的考虑,哈工大航天学院希望现阶段系统在性能上满足"适用"的原则,等到日后计算能力无法满足科研任务需求、或是数据量超过系统存储能力的时候,再便捷扩展到更高的性能与容量。要实现这一规划,不仅需要高性能计算系统充分考虑到3-5年内的业务发展需求,实现性能与容量的线性扩展,而且还要充分的节约扩展资源。
更高性能、更低成本 浪潮让计算充满智慧
在对哈工大航天学院的项目建设需求进行研究之后,浪潮提供了定制的高性能计算解决方案。解决方案采用3台高配的浪潮英信服务器NF5280M5作为其异构化计算节点,支撑其计算需求,管理节点采用1台中配的浪潮英信服务器NF5280M5,保证其管理节点的稳定性。在软件方面,浪潮则提供了浪潮高性能集群软件ClusterEngine与浪潮特征分析软件"天眼",分别用来进行平台管理与用户特征分析。
作为浪潮双路机架产品的旗舰机型,浪潮英信服务器NF5280M5搭载最新一代英特尔至强可扩展处理器,支持全新的微处理架构,AVX512指令集可提供上一代2倍的FLOPs/core,多达28个内核及56线程,计算性能可达到上一代的1.3倍。在存储模块则构建了1套标准、3种组合,在实现全闪存配置的基础上,实现了38块普通硬盘的扩展,相比上一代提升了31%。在哈工大航天学院的高性能计算系统中,实现了超过规划的计算能力,能够高效支撑哈工大航天学院当前的科研应用。

浪潮NF5280M5
浪潮为哈工大航天学院设计了异构分布式的高性能计算系统,在弹性扩展方面做到了2U双路服务器的极致,未来客户想要增加节点或增加存储空间等,只需要通过购买节点或存储即可实现敏捷扩容,而且不影响应用稳定运行,完全可以满足哈工大航天学院3-5年内的高性能计算需求。由于哈工大航天学院按照性能适用的原则来建设高性能计算系统,再加上浪潮英信服务器NF5280M5实现了智能管理,不需要更高的供电和散热能力,可以直接适用新型的新风制冷的绿色数据中心、节约功耗,从而显著节约系统的建设成本。根据估算,与其它解决方案相比,浪潮高性能解决方案可以降低20%的成本支出。
哈工大航天学院负责人表示:"受益于浪潮高性能计算解决方案,我院在建立了具有一流资源能力和服务水平的高性能计算环境,给我院的航天科研工作提供了强力的基础能力支撑,推动前沿航天科技的创新。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。