ZD至顶网服务器频道 02月08日 新闻消息: 超微(Supermicro)表示已经向一家“财富100强”企业位于硅谷的数据中心出货了30000多台服务器。
超微表示,这家客户已经在“全球最高密度和最高能效的数据中心之一那里部署了这些数量的分散MicroBlade系统”。该数据中心的PUE为1.06,相比之下传统数据中心的PUE为1.49甚至更高,所以新的数据中心在整合能效方面提升了88%。总IT负载为35千兆。
MicroBlade是3U或者6U的系统,采用14或者28个可热插拔的MicroBlade服务器刀片,该案例中部署了3U/14刀片的服务器节点。超微表示,这次部署的系统每个机架采用280个基于至强处理器的服务器,采用分散的机架规模设计,使得每个更新周期可节约CAPEX达45%~65%。
分散的英特尔机架规模设计意味着可以对CPU+内存、I/O、存储、电源/冷却组件进行独立升级。
超微公司总裁兼首席执行官Charles Liang表示:“通过新的MicroBlade和SuperBlade,我们改变了刀片架构的游戏规则,让刀片对我们客户来说初始采购成本达到最低,不仅可以最大限度发挥计算、能源效率、少电缆的设计,而且还有优化的TCO。”
那么这家客户到底是谁?可能是苹果或者Facebook吗?
超微公司即将推出一个新的SuperBlade架构,提供了更多的部署选项。
X10 Generation SuperBlade每个2U机架支持最多10/14/20个ES-2600 v4双处理器节点,具有与MicroBlade系统相同的丰富功能。
新的8U SuperBlade系统采用与MicroBlade相同的以太网交换机、机架管理模块、以及软件用于提高可靠性、可服务性以及可负担性。该系统可在半高和全高刀片中支持双处理器和多处理器,最多205瓦。
新的4U SuperBlade系统据称在性能和效率方面达到了最大化,同时每42U机架可支持140个双处理器的服务器或者280个单处理器的服务器。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。