ZD至顶网服务器频道 11月16日 新闻消息: 华为公司已经在其FusionServer机架内堆叠服务器产品线当中加入另一位新成员,即X6000机型。据悉,此服务器家族并不面向美国市场发售,但在世界其它市场上则将全面推出。

更为强大的至强与DIMM组合令此服务器系列拥有迅如闪电的速度表现。
目前华为公司的服务器产品线包括:
• 昆仑与泰山关键性任务服务器。
• FusionCube超融合型基础设施设备。
• FusionServer:
o E系列刀片服务器
o RH系列机架服务器
o X系列高密度服务器
在X系列产品线中,我们已经见到X6800数据中心服务器与多款V3服务器节点--具体包括XH628、XH622与XH620。
现在我们又迎来了新的X6000高密度服务器与其XH310 V3服务器节点。此次公布的为全新X6000机型,因为华为公司曾在2013年以同样的外观尺寸推出过一款Tecal X6000高密度服务器。根据我们掌握的情况,新服务器采用经过升级的节点处理器、利用DDR4 DIMM取代DDR3,同时本地存储方面则利用NVMe SSD替代了此前的磁盘与固态驱动器选项。

X6000机箱
X6000机箱为一台2U设备,容纳有两行、每行两台1U高/0.5U宽的服务器卡盒,亦可用于容纳两台全宽度服务器节点。其四卡盒选项意味着一套机架能够容纳最多800台半宽式服务器与160块处理器,我们姑且假定其为双插槽服务器。这台设备亦可最高容纳24块2.5英寸NVMe SSD。
另外,我们得到消息称该系统拥有一套冷却架构,能够将电源风冷通道与服务器节点隔离开来。
该服务器卡盒--华为公司将其称为节点--支持至强E3-1200 v3/v4以及至强E5-2400/E5-2600系列处理器。这些节点为前端挂载且支持热插拔功能。目前受支持的节点类型包括半宽XH310 V3、XH320 V2、XH321 V2以及全宽XH621 V2。
X6000可利用单一可插拔I/O模块实现最高四个PCIe 2.0 x 8插槽的IO扩展能力。其中还包含两个热插拔式供电单元,可实现1+1冗余模式,另外四套风扇模块则可实现N+1冗余模式。
XH310 V3服务器节点专门面向Web交付型应用设计,其规格参数包括:
• 至强E3-1200 v3/v4更新处理器
• 1 x 3.5英寸SATA磁盘驱动器
• 4 x DDR3 DIMM
华为公司提供的数据表表明,其运转功耗低于采用单一处理器的传统双插槽机架服务器,且配备有“独立的BMC模块,用于提供管理功能,包括XH310 V3节点的SOL与远程KVM、启动与关闭、操作及维护等。”
XH320则是一台采用至强E5-2400或者E5-2400 v2系列处理器的双插槽服务器节点,其支持4块2.5英寸磁盘驱动器或SSD以及12条DDR DIMM。其设计场景主要面向云计算及企业数据中心环境。

华为XH320
XH321 V3节点为另一台半宽双插槽设备,其支持至强E5-2600或E5-2600 v3/v4处理器,16条DDR DIMM以及6块2.5英寸磁盘驱动器或者NVMe SSD。其中配备有两个1GbitE或者10GbitE网络端口。华为公司表示,其"适用于各类服务器应用--包括高性能计算、虚拟化以及网络访问等对计算密度要求较高的用例。"
XH621 V2服务器节点支持最多24条DDR3 DIMM,8块2.5英寸驱动器以及等同于XH-321的双插槽/E5-2600/E5-2600 v2处理器,不过其最高计算核心可支持12个。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。