OpenAI 和 NVIDIA 宣布签署意向书,达成一项具有里程碑意义的合作。双方计划为 OpenAI 的下一代 AI 基础设施部署至少 10 吉瓦的 NVIDIA 系统,用于训练和运行其下一代模型,从而部署超级智能。为支持数据中心和电力容量部署,NVIDIA 计划随着新系统的部署,逐步向 OpenAI 投资高达 1000 亿美元。第一阶段部署预计将于 2026 年下半年在 NVIDIA Vera Rubin 平台上线。

NVIDIA 创始人兼首席执行官黄仁勋表示:“在过去十年,NVIDIA 和 OpenAI 一直在相互促进,从第一台 DGX 超级计算机到 ChatGPT 的突破。此次投资和基础设施合作标志着我们迈出了新的一步,部署 10 吉瓦的计算能力,推动下一个智能时代到来。”
OpenAI 联合创始人兼首席执行官 Sam Altman 表示:“一切始于计算。计算基础设施将成为未来经济的基础,我们将利用与 NVIDIA 共同构建的成果,创造新的 AI 突破,同时大规模赋能个人和企业。”
OpenAI 联合创始人兼总裁 Greg Brockman 表示:“自 OpenAI 成立之初,我们就与 NVIDIA 紧密合作。我们利用 NVIDIA 的平台构建了数亿人每天使用的 AI 系统。我们很高兴能与 NVIDIA 部署 10 吉瓦的计算能力,以突破智能前沿,并将这项技术惠及所有人。”
OpenAI 将与 NVIDIA 合作,成为其 AI 工厂增长计划的首选计算和网络合作伙伴。OpenAI 和 NVIDIA 将共同优化 OpenAI 模型和基础设施软件以及 NVIDIA 硬件和软件的路线图。
此次合作补充了 OpenAI 与 NVIDIA 同其他合作伙伴所做的深入工作,其中包括微软、Oracle、软银及 Stargate 合作伙伴等广泛的网络,旨在共同构建全球领先的 AI 基础设施。
OpenAI 的周活跃用户已超过 7 亿,并广泛应用于全球大型企业、小型企业和开发者群体。此次合作将进一步推动 OpenAI 的使命,即构建造福全人类的通用 AI。
NVIDIA 和 OpenAI 期待在未来几周内确定这一新阶段合作的细节。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。