戴尔今日宣布更新PowerEdge服务器系列,将支持AMD的第四代EPYC GenoaCPU。
AMD今天公布了最新一代的AMD EPYC芯片,戴尔几乎随即就展示了将如何在自己的旗舰服务器产品组合中采用这种最新一代的芯片。

据戴尔称,更新后的PowerEdge服务器系列将更有效地为数据分析等面向计算的工作负载提供支持,更新后的服务器采用独特的智能冷却技术来减少二氧化碳排放,内置的网络弹性架构则有助于加强安全性。
这些服务器也将在市场中带来真正的冲击。AMD最新这一代芯片采用了先进的5纳米工艺,可提供更高的密度和能效。Genoa EPYC服务器CPU还率先支持新的PCIe 5.0连接、DDR5内存和Compute Express Link 1.1标准。
更新后的PowerEdge服务器系列提供单路和双路两种配置,与去年的型号相比,处理器核心增加了50%。戴尔还表示,AMD驱动的PowerEdge系统将具有前所未有的最高性能,与上一代相比提高121%,2U服务器的前置驱动器增加了33%,1U服务器的前置驱动器增加了60%。
该产品系列有旗舰产品PowerEdge R7625引领,它可大幅提升应用性能和数据存储,这个双路2U平台可以作为数据中心主干,经过测试可将内存数据库性能提高72%,超过所有类似配置的服务器。戴尔表示,PowerEdge R7625服务器将在本月晚些时候以有限的配置供货,计划于2023年2月在全球范围内面市。
此外,客户还可以选择PowerEdge R7615,一款单路2U的系统,内存带宽更高、硬盘驱动器有所改进且延迟更低。据戴尔称,PowerEdge R7615可以同时完成多项工作,且占用空间比同类的上一代服务器更小。
这一产品系列中还包括了双路1U的PowerEdge R6625和单路1U的R6615系统,据称这两款系统在性能、灵活性和密度之间实现了强大的平衡。而且戴尔表示,后三种型号都将在明年2月份全面上市。
戴尔PowerEdge、高性能计算和核心计算产品组合和产品管理副总裁Rajesh Pohani表示:“客户要求以最可持续的方式提供不妥协的计算性能,我们最新的PowerEdge服务器专门为满足当今那些需求苛刻的工作负载而设计,且同时兼具效率和弹性。”
在可持续性方面,此次新推出的服务器提供了智能冷却技术的设计增强功能,可以使更多气流通过系统,使系统在更长时间内保持凉爽。戴尔表示,这将减少客户数据中心运营产生的热量和能源消耗。总体而言,更新后的PowerEdge服务器与上一代相比,处理器性能效率可提高55%。
此外,更新的PowerEdge系统由回收塑料制成,其中大量都是可以通过戴尔的多件包装选项同时运送的,从而减少对环境的整体影响。
最后戴尔强调,此次推出的新系统以“网络弹性架构”为基础,功能包括系统锁定、漂移检测、多因素身份验证和支持机密计算(数据在处理时被加密),“以数据中心安全为核心”的原则,打造更安全和更有弹性的运营模式。
IDC分析师Kuba Stolarski表示,服务器性能的持续创新对企业来说至关重要,他对这些新的PowerEdge系统表示了高度称赞。
Stolarski表示:“戴尔的新型PowerEdge服务器平台直接设计嵌入了高级安全功能,可以帮助企业组织在不断增加的威胁环境中跟上数据增长的步伐。性能方面的改进可以帮助客户实施人工智能、高性能计算和其他现代工作负载,让他们从数据和IT环境中获取最大的价值。”
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。