ZD至顶网服务器频道 02月08日 新闻消息: 超微(Supermicro)表示已经向一家“财富100强”企业位于硅谷的数据中心出货了30000多台服务器。
超微表示,这家客户已经在“全球最高密度和最高能效的数据中心之一那里部署了这些数量的分散MicroBlade系统”。该数据中心的PUE为1.06,相比之下传统数据中心的PUE为1.49甚至更高,所以新的数据中心在整合能效方面提升了88%。总IT负载为35千兆。
MicroBlade是3U或者6U的系统,采用14或者28个可热插拔的MicroBlade服务器刀片,该案例中部署了3U/14刀片的服务器节点。超微表示,这次部署的系统每个机架采用280个基于至强处理器的服务器,采用分散的机架规模设计,使得每个更新周期可节约CAPEX达45%~65%。
分散的英特尔机架规模设计意味着可以对CPU+内存、I/O、存储、电源/冷却组件进行独立升级。
超微公司总裁兼首席执行官Charles Liang表示:“通过新的MicroBlade和SuperBlade,我们改变了刀片架构的游戏规则,让刀片对我们客户来说初始采购成本达到最低,不仅可以最大限度发挥计算、能源效率、少电缆的设计,而且还有优化的TCO。”
那么这家客户到底是谁?可能是苹果或者Facebook吗?
超微公司即将推出一个新的SuperBlade架构,提供了更多的部署选项。
X10 Generation SuperBlade每个2U机架支持最多10/14/20个ES-2600 v4双处理器节点,具有与MicroBlade系统相同的丰富功能。
新的8U SuperBlade系统采用与MicroBlade相同的以太网交换机、机架管理模块、以及软件用于提高可靠性、可服务性以及可负担性。该系统可在半高和全高刀片中支持双处理器和多处理器,最多205瓦。
新的4U SuperBlade系统据称在性能和效率方面达到了最大化,同时每42U机架可支持140个双处理器的服务器或者280个单处理器的服务器。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自首尔国立大学的研究提出了状态机推理(SMR)框架,解决了大型语言模型在信息检索中的过度思考问题。研究者将推理过程从冗长的令牌生成转变为离散动作(精炼、重排序、停止),使系统能够高效地在状态间转换。实验结果表明,SMR在BEIR和BRIGHT基准测试中显著提高了检索性能,同时减少了74.4%的计算资源消耗,证明其在不同语言模型和检索器中的通用性。这种结构化方法不仅解决了冗余轨迹和误导性推理问题,还为构建更高效的信息检索系统提供了新思路。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
REASONING GYM是GitHub团队开发的一个突破性推理环境库,为强化学习模型提供可验证奖励。与传统固定数据集不同,它能生成无限训练数据并调整难度,涵盖代数、算术、认知、几何等100多个领域的数据生成器。研究显示,即使顶尖AI模型在复杂任务上表现也不佳,而专门针对推理训练的模型明显优于通用模型。更重要的是,在一个领域学习的技能可以意外地迁移到其他领域,这为提升AI推理能力提供了新路径。