五款全新思科UCS服务器已经正式亮相,然而出于某些原因,Storage Review在不久之后撤回了相关报道。根据目前的情况来看,思科公司似乎打算削减其刀片服务器产品线的方案数量。而处理器配置方面尚未公布,显然是为了等待英特尔方面的最新公告。
思科公司目前还没有正式发布公告,但我们预计今天之内情况就会趋于明朗。
全部M5代服务器皆采用至强SP CPU,但由于英特尔方面还没有公布此处理器的具体细节,因此相关信息仍然处于缺失状态。
其中包含两款刀片服务器,其中B200 M5属于半宽双插槽服务器,配合最多两个英伟达P6 GPU。其将用于替代原本的M4版本B200服务器。
B480 M5则为一款四插槽刀片服务器,其预计将替代M4 B420(四插槽,全宽)与B460服务器。
思科公司还公布了其它三款新的机架服务器:
其中C480 M5支持最多六块AMD S7150 x2图形芯片或者英伟达Tesla P40与Tesla P100 GPU,驱动器支持上限则为32块。
以上M5系列UCS服务器皆拥有两倍于上代M4版本的内存容量,且执行速度可提升86%。
目前还没有关于M5版本S3260 M4存储服务器的相关消息。将在得到相关资讯后第一时间为大家带来报道。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。