至顶网服务器频道 05月03日 新闻消息: 为了给航天科学研究提供高性能计算能力的支撑,哈尔滨工业大学(以下简称:哈工大)航天学院于近期启动了高性能计算项目,并部署了基于浪潮英信服务器NF5280M5的高性能计算解决方案。系统不仅在性能满足了哈工大航天学院在现阶段的高性能计算需求,而且还具有极高的扩展性与成本效益,为航天科研提供了稳健的支撑。
尖端航天科技背后的高性能计算
哈工大由中华人民共和国工业和信息化部直属,中央直管副部级建制,位列双一流、211工程、985工程,享有"工程师的摇篮"之美誉。其中,哈工大航天学院是国内航天主干学科最为齐全、规模最大的航天学院,承担着包括国防重大基础研究课题在内的多项研究课题。
随着中国航天航空事业的快速发展,哈工大航天学院承担了越来越多的科研任务,CFD(计算流体力学)数值模拟研究等应用对于计算系统的性能提出了越来越多的需求,常规的计算能力远远无法满足复杂的科研任务所带来的巨大需求。为满足航天科研整体理论峰值动辄每秒百亿次以上的浮点运算能力需求,哈工大航天学院要求采用异构化计算节点的方式。
此外,哈工大航天学院还要求高性能计算系统具备足够的成本敏捷性与扩展性:基于降低成本压力的考虑,哈工大航天学院希望现阶段系统在性能上满足"适用"的原则,等到日后计算能力无法满足科研任务需求、或是数据量超过系统存储能力的时候,再便捷扩展到更高的性能与容量。要实现这一规划,不仅需要高性能计算系统充分考虑到3-5年内的业务发展需求,实现性能与容量的线性扩展,而且还要充分的节约扩展资源。
更高性能、更低成本 浪潮让计算充满智慧
在对哈工大航天学院的项目建设需求进行研究之后,浪潮提供了定制的高性能计算解决方案。解决方案采用3台高配的浪潮英信服务器NF5280M5作为其异构化计算节点,支撑其计算需求,管理节点采用1台中配的浪潮英信服务器NF5280M5,保证其管理节点的稳定性。在软件方面,浪潮则提供了浪潮高性能集群软件ClusterEngine与浪潮特征分析软件"天眼",分别用来进行平台管理与用户特征分析。
作为浪潮双路机架产品的旗舰机型,浪潮英信服务器NF5280M5搭载最新一代英特尔至强可扩展处理器,支持全新的微处理架构,AVX512指令集可提供上一代2倍的FLOPs/core,多达28个内核及56线程,计算性能可达到上一代的1.3倍。在存储模块则构建了1套标准、3种组合,在实现全闪存配置的基础上,实现了38块普通硬盘的扩展,相比上一代提升了31%。在哈工大航天学院的高性能计算系统中,实现了超过规划的计算能力,能够高效支撑哈工大航天学院当前的科研应用。
浪潮NF5280M5
浪潮为哈工大航天学院设计了异构分布式的高性能计算系统,在弹性扩展方面做到了2U双路服务器的极致,未来客户想要增加节点或增加存储空间等,只需要通过购买节点或存储即可实现敏捷扩容,而且不影响应用稳定运行,完全可以满足哈工大航天学院3-5年内的高性能计算需求。由于哈工大航天学院按照性能适用的原则来建设高性能计算系统,再加上浪潮英信服务器NF5280M5实现了智能管理,不需要更高的供电和散热能力,可以直接适用新型的新风制冷的绿色数据中心、节约功耗,从而显著节约系统的建设成本。根据估算,与其它解决方案相比,浪潮高性能解决方案可以降低20%的成本支出。
哈工大航天学院负责人表示:"受益于浪潮高性能计算解决方案,我院在建立了具有一流资源能力和服务水平的高性能计算环境,给我院的航天科研工作提供了强力的基础能力支撑,推动前沿航天科技的创新。"
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。