ZD至顶网服务器频道 11月16日 新闻消息: 华为公司已经在其FusionServer机架内堆叠服务器产品线当中加入另一位新成员,即X6000机型。据悉,此服务器家族并不面向美国市场发售,但在世界其它市场上则将全面推出。
更为强大的至强与DIMM组合令此服务器系列拥有迅如闪电的速度表现。
目前华为公司的服务器产品线包括:
• 昆仑与泰山关键性任务服务器。
• FusionCube超融合型基础设施设备。
• FusionServer:
o E系列刀片服务器
o RH系列机架服务器
o X系列高密度服务器
在X系列产品线中,我们已经见到X6800数据中心服务器与多款V3服务器节点--具体包括XH628、XH622与XH620。
现在我们又迎来了新的X6000高密度服务器与其XH310 V3服务器节点。此次公布的为全新X6000机型,因为华为公司曾在2013年以同样的外观尺寸推出过一款Tecal X6000高密度服务器。根据我们掌握的情况,新服务器采用经过升级的节点处理器、利用DDR4 DIMM取代DDR3,同时本地存储方面则利用NVMe SSD替代了此前的磁盘与固态驱动器选项。
X6000机箱
X6000机箱为一台2U设备,容纳有两行、每行两台1U高/0.5U宽的服务器卡盒,亦可用于容纳两台全宽度服务器节点。其四卡盒选项意味着一套机架能够容纳最多800台半宽式服务器与160块处理器,我们姑且假定其为双插槽服务器。这台设备亦可最高容纳24块2.5英寸NVMe SSD。
另外,我们得到消息称该系统拥有一套冷却架构,能够将电源风冷通道与服务器节点隔离开来。
该服务器卡盒--华为公司将其称为节点--支持至强E3-1200 v3/v4以及至强E5-2400/E5-2600系列处理器。这些节点为前端挂载且支持热插拔功能。目前受支持的节点类型包括半宽XH310 V3、XH320 V2、XH321 V2以及全宽XH621 V2。
X6000可利用单一可插拔I/O模块实现最高四个PCIe 2.0 x 8插槽的IO扩展能力。其中还包含两个热插拔式供电单元,可实现1+1冗余模式,另外四套风扇模块则可实现N+1冗余模式。
XH310 V3服务器节点专门面向Web交付型应用设计,其规格参数包括:
• 至强E3-1200 v3/v4更新处理器
• 1 x 3.5英寸SATA磁盘驱动器
• 4 x DDR3 DIMM
华为公司提供的数据表表明,其运转功耗低于采用单一处理器的传统双插槽机架服务器,且配备有“独立的BMC模块,用于提供管理功能,包括XH310 V3节点的SOL与远程KVM、启动与关闭、操作及维护等。”
XH320则是一台采用至强E5-2400或者E5-2400 v2系列处理器的双插槽服务器节点,其支持4块2.5英寸磁盘驱动器或SSD以及12条DDR DIMM。其设计场景主要面向云计算及企业数据中心环境。
华为XH320
XH321 V3节点为另一台半宽双插槽设备,其支持至强E5-2600或E5-2600 v3/v4处理器,16条DDR DIMM以及6块2.5英寸磁盘驱动器或者NVMe SSD。其中配备有两个1GbitE或者10GbitE网络端口。华为公司表示,其"适用于各类服务器应用--包括高性能计算、虚拟化以及网络访问等对计算密度要求较高的用例。"
XH621 V2服务器节点支持最多24条DDR3 DIMM,8块2.5英寸驱动器以及等同于XH-321的双插槽/E5-2600/E5-2600 v2处理器,不过其最高计算核心可支持12个。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。