为 AI 数据中心工作负载供电的挑战(与机遇)
作者:Arm 首席执行官 Rene Haas
人工智能 (AI) 具有超越过去一个世纪所发生的所有变革性创新的潜力,它在医疗保健、生产力、教育等领域为社会带来的益处将超乎我们的想象。为了运行这些复杂的 AI 工作负载,全球数据中心所需的计算量需要以指数级规模进行扩展。然而,这种对计算无止尽的需求也揭示了一个严峻的挑战:数据中心需要庞大的电力来驱动AI这一突破性技术。
当今的数据中心已经消耗了大量的电力——全球每年需要 460 太瓦时 (TWh) 电力进行支持,这个数字等同于整个德国的用电量。而 AI 的兴起预计将在 2030 年把该数字提高三倍,意味着将超过印度这一世界上人口最多国家的总耗电量。
未来的 AI 模型将持续变得更大、更智能,在带动对更多计算能力的需求的同时,对电力的需求也会增加,从而成为良性循环的一部分。而找到降低这些大型数据中心电力需求的方法对于实现社会性突破和兑现 AI 的承诺至关重要。
换言之,没有电力就无法实现 AI,企业需要重新思考如何应对能效问题的方方面面。
重新构思 AI 的未来——一个由 Arm 平台驱动的未来
Arm 最初的产品就是为使用电池的设备而设计的,并推动了移动电话的变革。因此,深植于 Arm 的能效 DNA能使业界重新思考应如何构建芯片来满足 AI 日益增长的需求。
在典型的服务器机架中,仅计算芯片就可以消耗超过 50% 的电力预算。工程团队正在寻找各种可以降低该数字的方法,每一瓦特的减少都至关重要。
正因为此,全球最大的 AI 头部云服务提供商们转而采用 Arm 技术来降低功耗。与同行业中的其他产品相比,Arm 最新的 Arm Neoverse CPU 是面向云数据中心,性能最高、最节能的处理器。Neoverse 为头部云服务提供商提供了定制芯片的灵活性,以优化其苛刻的工作负载,同时提供领先的性能和能效。每一瓦特的节省都可以用来实现更多的计算。这也正是为什么亚马逊云服务 (AWS)、微软、Google 和甲骨文 (Oracle) 现在都通过 Neoverse 技术,处理其通用计算和基于 CPU 的 AI 推理和训练。Neoverse 平台正在成为云数据中心领域的事实标准。
从近期的行业内的发布来看:
显然,Neoverse 极大地提升了云端通用计算的性能和能效。此外,合作伙伴也发现在加速计算方面,Neoverse 也能带来同样的益处。大规模 AI 训练需要独特的加速计算架构,例如,NVIDIA Grace Blackwell 平台 (GB200) 结合了 NVIDIA 的 Blackwell GPU 架构与基于 Arm 架构的 Grace CPU。这种基于 Arm 技术的计算架构可实现系统级设计优化,与面向大语言模型的 NVIDIA H100 GPU 相比,可带来 25 倍的能耗降低,并将每个 GPU 的性能提高 30 倍。这些优化能够带来颠覆性的性能和节能效果,而这一切都得益于 Neoverse 所带来的前所未有的芯片定制灵活性。
随着基于Arm 架构的部署持续扩大,这些企业将可以节省高达 15% 的数据中心总能耗。这些巨幅的节省可以用来在相同的功率范围内驱动额外的 AI 运算,而不会增加能源负担。换言之,这些节能相当于可以额外运行 20 亿次 ChatGPT 查询,驱动四分之一的日常网络搜索流量,为 20% 的美国家庭提供照明,或为与哥斯达黎加面积相仿的国家进行供电。这对改善能源消耗和环境可持续性产生了惊人的影响。
Arm CPU 正在从根本上推动 AI 变革,并造福地球。Arm 架构是未来 AI 计算的基石。
好文章,需要你的鼓励
OpenAI明确表示要成为互联网一切事物的主导界面。AI智能体正在改变用户的数字习惯,从健康记录分析到购物指导,ChatGPT已经在多个领域扩展影响力。用户快速采用AI工具,但企业和生态系统的适应速度滞后。电商领域的权力分配尚不明确,用户偏好AI驱动的答案优先体验,品牌则推动生成式引擎优化。研究旨在了解用户与企业在AI变革中的适应差异。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。