思科认为,自己的UCS系列服务器需要一个新成员来面向高密度数据中心和边缘部署。
因此思科推出了UCS C4200平台,包括UCS C4200系列机架式服务器和UCS C125 M5机架服务器节点。
这款2U机箱可容纳4个服务器和24个磁盘驱动器,并提供共享电源和散热。但正如思科UCS产品管理总监James Leach所说的那样,“这不是一个刀片环境,因为你不会共享这个结构的。”
这款服务器配置一个或两个AMD Epyc 7000系列处理器,思科之所以这样选择是因为它认为思科能够提供优于竞争对手的性价比。Leach表示,如果有需求的话,思科没有理由不打造一款基于英特尔的服务器以适应机箱配置,甚至是基于ARM的服务器,但目前AMD在满足思科低运营成本和密度目标方面做得最好。
Leach说:“单路服务器的优点是高核心数和低功耗,同时也会给你带来不同的每核心性价比。此外,AMD在CPU上做了大量加密,这一点令人兴奋。”
所有这些对于AMD来说都是令人高兴的,因为这是AMD在UCS服务器上的首次亮相。
思科透露新平台会扮演两种角色,其一是部署在中小型服务提供商的数据中心,这些服务提供商的规模还不够大,无法实现适当的超大规模平台;另一个是部署在边缘,其作用例如帮助游戏公司的计算和存储更接近他们的客户。
关于后者,思科认为采购者会意识到这个平台可以通过UCS管理器或者Intersight管理工具进行管理。另外,AMD的加密技术也是一个卖点。
关于前者,思科认为这个新套件在可扩展性和广度方面与UCS产品组合中的其他产品一样高。
思科的UCS系列以及它的优点
这款服务器的其他特点包括:
最多2个AMD Epyc CPU(每个插槽最多32个内核)
16个DIMM插槽(每个CPU插槽8个)可实现2 TB容量,使用128 GB DIMM
2666 - MHz DDR4内存
2个PCIe 3.0插槽
可选的第4代思科虚拟接口卡
每个C125服务器配置6个SAS/SATA驱动器(前置于C4200机箱中)或者
每个C125 M5服务器最多2个NVMe驱动器和4个SAS/SATA
思科12G 9460-8i PCIe 12G SAS RAID控制器
灵活的OCP 2.0网络夹层插槽支持10、25、40和最高100Gbps的速度
内部SD或M.2启动选项
新套件还可以与思科Hyperflex软件实现超融合,但目前思科在这方面比较低调。
思科对UCS一直抱有很现实的态度,知道这不是一款大众市场的产品。这个策略奏效了,因为商品服务器的利润率很小,而且思科已经可以忽略这个问题了。
扩大UCS范围意味着思科有机会扮演更多的角色。选择AMD对AMD来说也是一次胜利。Epyc和更简易的管理是否足以让服务提供商摆脱他们对商品产品的喜好,这一点仍有待观察。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。