Dell EMC和超微(Super Micro)正在对其数据中心服务器产品阵容进行升级,推出了采用英特尔最新第二代Xeon Scalable处理器的新系统。
今天推出的新款服务器还采用了英特尔Optane DC永久内存以及旨在加速人工智能工作负载的Deep Learning Boost技术。
据称,英特尔第二代Xeon Scalable处理器比前几代处理器更快、更高效,同时Optane DC永久内存也有助于提高存储容量。两者的结合可以更好地提高整体性能,降低总拥有成本,以及提供更好的管控和安全功能。同时,英特尔的Deep Learning Boost技术旨在针对那些需要更高处理能力的特定工作负载(例如内存数据库、虚拟化和数据分析)提高性能表现。
Dell EMC方面将升级高端PowerEdge服务器系列以及OpenManage管理系统,后一项更新很有意思,因为这项更新为数据中心运营者提供了更高的灵活性,可以从操作系统而不是管理网络对服务器进行直接管理。
Dell EMC表示,新的OpenManage系统架构还有助于减少满足用户特定需求所需的控制台数量。此外,新的移动功能让数据中心运营者可以选择从移动设备管理基础设施。例如,用户现在可以直接从智能手机上查看任何事件的图形表示,并采取措施对其进行补救。
OpenManage还提供了新功能用于配置那些采用Optane DC永久内存的服务器。新系统能够自动配置BIOS、驱动器和内存,然后跨多个服务器复制这些设置。
PowerEdge服务器本身也受益于英特尔最新第二代Xeon Scalable处理器在性能上的提升。例如Dell EMC称,这让核心业务应用的性能提高了40%。此外,全新的英特尔Optane DC永久内存让内存容量提高了2.5倍,这也让内存数据库、虚拟化和分析工作负载从中受益。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示,英特尔第二代Xeon Scalable芯片的最大亮点就是它的机器学习功能,这些功能非常适用于参考引擎等推理工作负载,对这些工作负载来说延迟至关重要。
Moorhead表示:“第二代至强还支持Optane永久内存,针对像HANA这样的应用,可以从根本上提高TCO。英特尔的调优功能将得到云服务提供商的广泛认可。”
超微新推出的服务器产品线中也有类似的改进,包括令人惊讶的100多个更新系统。超微提供极为广泛的服务器产品组合,针对任何类型的情况或者客户都进行了优化,包括特有的资源节约型服务器;实现性能最大化的“Ultra SuperServers”;针对要求最低延迟的高性能应用的“全闪存”服务器;以及针对内存数据库和实时分析的“多处理器”系统。超微方面表示,所有这些系统都基于英特尔最新的处理器进行了升级,从而提高了性能,降低了总拥有成本,并减少了对环境的影响。
“我们的设计充分利用了第二代英特尔Xeon Scalable处理器的新功能,例如DIMM速度提高10%,内存容量增加1.5倍,CPU频率高达3.8GHz,以及英特尔Optane DC永久内存,”超微公司首席执行官Charles Liang表示。
Dell EMC方面表示,新的PowerEdge服务器阵容将于4月16日全面上市,OpenManage更新将在第二季度推出,另外第二季度会在选定的服务器型号上提供英特尔Optane DC永久。
超微方面还没有公布这些升级服务器的上市时间。
好文章,需要你的鼓励
这篇研究揭示了大语言模型强化学习中的"熵崩塌"现象——模型在训练早期迅速失去探索能力,导致性能达到可预测的上限。研究者发现验证性能和策略熵之间存在精确的数学关系:R = -a·exp(H) + b,并深入分析了熵变化的内在机制。基于这些发现,他们提出了两种简单有效的方法(Clip-Cov和KL-Cov)来缓解熵崩塌问题,显著提升了模型性能,特别是在困难任务上。这项研究为大模型强化学习的规模化应用提供了关键指导。
Skywork OR1是昆仑公司AI团队开发的开源推理大模型,通过创新的强化学习方法显著增强了语言模型的推理能力。该研究基于DeepSeek-R1-Distill模型系列,采用名为MAGIC的训练方法,在AIME24、AIME25和LiveCodeBench三大基准测试中实现了显著性能提升,32B模型平均准确率提高15.0%,7B模型提高13.9%。研究团队通过系统研究策略熵崩塌现象,提出了有效的缓解策略,并开源了全部代码、数据和模型权重,为AI社区提供了宝贵资源。
上海交通大学研究团队发现多模态大语言模型中的"啊哈时刻"(自我反思模式)虽存在但并不意味着推理能力提升。他们提出了"冷启动强化学习"两阶段方法:先用监督微调建立推理模式,再通过强化学习优化。实验表明,这种方法在多个多模态数学推理基准上表现卓越,使3B参数模型达到接近甚至超越部分7B模型的性能,为增强多模态AI推理能力提供了有效路径。
MBZUAI研究团队开发的SVRPBench是首个模拟真实物流环境的随机车辆路径问题基准测试平台。它通过建模时间依赖的交通拥堵、概率性延误和客户特定时间窗口,为500多个包含最多1000客户的测试实例注入真实世界的不确定性。实验结果显示,先进的强化学习算法在分布变化时性能下降超过20%,而传统方法表现更为稳健。该开源平台通过GitHub和Hugging Face发布,旨在推动更适应现实世界不确定性的路由算法研究。