近日,国际权威评测媒体ServeTheHome(简称STH)对浪潮信息服务器NF5180M6进行专业的拆机评测,浪潮信息NF5180M6最终获得9.2分高分,得到了对于产品设计、性能、功能等多维度的认可。NF5180M6通过在1U空间实现性能、密度、扩展性最大化的设计,打破了47项SPEC CPU、SPEC Power等纪录,适用于高频次计算,虚拟化等多种计算密集型应用场景,满足高密数据中心部署需求。
STH作为国际数据中心领域的权威媒体,会定期对全球市场关注的IT设备进行拆机测评,报道内容深受行业人士认可。此次STH媒体对全球第二的服务器厂商浪潮信息的主流产品NF5180M6进行了评测,STH总编Patrick Kennedy评价说,“NF5180M6拥有优良的设计,它利用2U服务器所使用的基础主板平台和技术构建服务器;能够在提高密度的同时保持稳定的性能和功耗,非常符合市场对于1U服务器的期待。同时,浪潮信息利用诸多开放标准,尽量避免使用专用接口,这一点非常可取。”
小身材里的大容量
浪潮信息NF5180M6是1U双路高密计算型机架式服务器,基于英特尔®至强®第三代可扩展处理器设计,单CPU最高拥有40个内核,最大支持TDP 270W CPU,最高基频3.6 GHz和3组11.2 GT/s UPI互连链路,整体计算性能提升46%,实现性能、密度、扩展性的最大化设计,适配虚拟化、在线计算等计算密集型业务,满足高密数据中心部署,解决数据中心对于空间、功耗、散热三者难以平衡的难题。
同时,浪潮信息NF5180M6具有7种存储模式和3种I/O配置,可以灵活满足不同业务需求,并提供2种用于高端存储场景的极限存储解决方案,在1U空间内可支持多达32个E1.S EDSFF SSD或者在前置配置12个2.5英寸SAS/SATA/NVMe硬盘。
此次STH测评的NF5180M6正面配置12个2.5英寸硬盘,后窗配置3个PCIe 4.0 x16转接卡插槽,一个是全高插槽和两个半高插槽,这种极致存储扩展能力可与2U拉齐,且兼顾计算和I/O扩展,提供更高速率,保障1U平台可扩展性,为数据本地化高速处理提供支撑,是客户低延时、高并发业务的最佳解决方案。
1U极限散热下的极致性能
更高密度和更强的算力也往往会带来了更高的功耗,功率的提升对于服务器整机散热和能耗都产生巨大的影响,本次测评STH针对于NF5180M6产品的内部结构从散热设计和性能验证等多个维度进行评测。
由于物理空间的限制,许多1U规格的服务器并未配备热插拔风扇,然而浪潮信息NF5180M6不仅配备热插拔风扇,而且赋予其精心设计,在服务器的每个风扇进风口处,能够看到一排分布着无数蜂窝状小孔的板子,即波导网,同时风扇气流通过导风罩引导。导风罩上有CPU插槽和内存插槽标签极易拆卸和安装。Kennedy表示:“这一特点是许多竞品不可比拟的,这种创新的散热设计使NF5180M6可以支持具备极限热设计功耗(TDP)的高端英特尔至强铂金SKU。部分1U服务器无法支持像至强铂金8380这样可达到270W TDP的CPU,但浪潮信息NF5180M6可以。”
浪潮信息NF5180M6散热设计
在性能测试方面,STH选取的是更高端的SKU,从而确保系统具备足够的散热性能。对现代系统来说,散热不足会导致CPU降速,从而对性能产生负面影响。验证高端CPU的热设计功耗(TDP)范围,有助于我们了解服务器是否有足够的散热能力以全性能运行整个SKU堆栈。STH的测试结果显示,NF5180M6和NF5280M6在性能上差距较小,尽管NF5280M6 2U服务器的速度稍快,然而NF5180M6却拥有两倍的机架密度,因此可弥补该细微的性能差距。
除了NF5180M6的内外部结构,STH也对服务器的性能、功耗、管理界面一一进行了评测,综合设计与外观、性能、功能、价值多维度指标,为NF5180M6评出9.2分高分。Kennedy最后表示,“采用1U规格的服务器拥有极大的灵活性。同2U服务器相比,虽然会牺牲少许耗电量以及容纳加速器和存储设备的物理空间,但我们可以在一个机架内大幅增加CPU和内存密度。这一点非常有意义,也符合我们对1U系统的确切期待。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。