至顶网服务器频道 10月20日 新闻消息(文/Simon Sharwood with Chris Mellor):HPE宣布不再继续为大型云运营商提供定制服务器的业务。
读过笔者10月5日文章的读者可能会感到惊讶。其时HPE的Carlo Giorgi告诉记者,云服务器业务“……正在重新被打造及被打造成更适合目标用户的业务。云服务器业务仍将为服务提供商提供定制产品,但不会只具有标准的SKU,而且产品结构将取决于计算类型的需要。”
但现在HPE却发布了HPE总裁Antonio Neri本周提交的给金融分析师的幻灯片。他的第三张幻灯片判了服务器的死刑,见下图。
至于HPE为大型云提供的“高利润产品”是什么则没有明说。但如果说是完全新的东西的话,笔者会感到吃惊,因为Neri幻灯片里的第五张概述了HPE公司产品、地点和语言的大幅度整固。这可能也解释了为什么坊间会有HPE计划砍掉5000个工作岗位的 流言。
整套幻灯片在HPE公司未来的发展方向上给出了一些提示,幻灯片提到的计划包括:名为“Project New Stack”的项目,旨在提供“跨云混合即服务平台应用、数据及基础架构组合”;扩展Aruba平台,在云管理网络领域挑战思科的Meraki;作为Aruba解决方案的一部分开发SD-WAN功能,为客户提供单一控制点的Wi-Fi、交换和广域网;扩展Aruba OS下一代校园聚合交换的可编程性。
笔者曾要求HPE澄清其服务器计划,如果HPE这样做的话,笔者会更新此文或发一篇新的文章。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。