思科认为,自己的UCS系列服务器需要一个新成员来面向高密度数据中心和边缘部署。
因此思科推出了UCS C4200平台,包括UCS C4200系列机架式服务器和UCS C125 M5机架服务器节点。
这款2U机箱可容纳4个服务器和24个磁盘驱动器,并提供共享电源和散热。但正如思科UCS产品管理总监James Leach所说的那样,“这不是一个刀片环境,因为你不会共享这个结构的。”
这款服务器配置一个或两个AMD Epyc 7000系列处理器,思科之所以这样选择是因为它认为思科能够提供优于竞争对手的性价比。Leach表示,如果有需求的话,思科没有理由不打造一款基于英特尔的服务器以适应机箱配置,甚至是基于ARM的服务器,但目前AMD在满足思科低运营成本和密度目标方面做得最好。
Leach说:“单路服务器的优点是高核心数和低功耗,同时也会给你带来不同的每核心性价比。此外,AMD在CPU上做了大量加密,这一点令人兴奋。”
所有这些对于AMD来说都是令人高兴的,因为这是AMD在UCS服务器上的首次亮相。
思科透露新平台会扮演两种角色,其一是部署在中小型服务提供商的数据中心,这些服务提供商的规模还不够大,无法实现适当的超大规模平台;另一个是部署在边缘,其作用例如帮助游戏公司的计算和存储更接近他们的客户。
关于后者,思科认为采购者会意识到这个平台可以通过UCS管理器或者Intersight管理工具进行管理。另外,AMD的加密技术也是一个卖点。
关于前者,思科认为这个新套件在可扩展性和广度方面与UCS产品组合中的其他产品一样高。
思科的UCS系列以及它的优点
这款服务器的其他特点包括:
最多2个AMD Epyc CPU(每个插槽最多32个内核)
16个DIMM插槽(每个CPU插槽8个)可实现2 TB容量,使用128 GB DIMM
2666 - MHz DDR4内存
2个PCIe 3.0插槽
可选的第4代思科虚拟接口卡
每个C125服务器配置6个SAS/SATA驱动器(前置于C4200机箱中)或者
每个C125 M5服务器最多2个NVMe驱动器和4个SAS/SATA
思科12G 9460-8i PCIe 12G SAS RAID控制器
灵活的OCP 2.0网络夹层插槽支持10、25、40和最高100Gbps的速度
内部SD或M.2启动选项
新套件还可以与思科Hyperflex软件实现超融合,但目前思科在这方面比较低调。
思科对UCS一直抱有很现实的态度,知道这不是一款大众市场的产品。这个策略奏效了,因为商品服务器的利润率很小,而且思科已经可以忽略这个问题了。
扩大UCS范围意味着思科有机会扮演更多的角色。选择AMD对AMD来说也是一次胜利。Epyc和更简易的管理是否足以让服务提供商摆脱他们对商品产品的喜好,这一点仍有待观察。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。