美国的技术制裁以及供应链对 Nvidia 最新设备机架的准备情况,可能会导致 2025 年 AI 服务器销售降温。
台湾市场研究机构 TrendForce 表示,在云服务提供商 (CSPs) 订单的推动下,去年 AI 配置系统的出货量增长了 46%。
Synergy Research Group 上月发布的数据也印证了这一趋势,显示由于预期的 AI 客户需求推动,2024 年公共云基础设施支出激增 48%。服务器制造商富士康也将其最近创纪录的收入增长归功于 AI 服务器的销售。
然而,TrendForce 认为 AI 服务器前景存在一些不确定性,因此对 2025 年提出了几种预测情况。
最有可能的情况是市场将继续扩张,但年增长率会降低——尽管仍可能超过 30%。Microsoft、Meta、Amazon 和 Google 计划增加在云计算和 AI 基础设施方面的资本支出,这预计将维持 AI 服务器需求的一定势头。
TrendForce 认为次可能发生的最坏情况是,AI 服务器出货量增长将放缓至"仅" 20-25%。
影响这一预测的因素包括美国可能对向中国出口 AI 芯片实施更严格的管制,从而增加市场不确定性。此外,由于设计复杂,基于 Grace-Blackwell 超级芯片的 Nvidia 机架系统可能推迟到下半年才能大规模部署。
更乐观的预测假设美国和中国的积极政策(如 Stargate 项目)可能加速 AI 服务器部署。虽然关于 DeepSeek 的揭示可能影响高端 GPU 的采用,但大型云计算公司采购自研芯片的 AI 服务器的速度超出预期。TrendForce 表示,DeepSeek 可能会扩大 AI 的应用,推动边缘 AI 的增长。如果这些因素成真,分析师预计 2025 年 AI 服务器出货量将增长近 35%。
IBM 首席执行官 Arvind Krishna 本月预测,在 DeepSeek 发布后,对 AI 模型开发成本的"清算"将有助于推动该技术的采用。
Krishna 说:"随着成本下降,我们会发现使用量会爆发性增长。这是一个验证——我们一直认为,不需要花费那么多钱就能获得这些模型。"
TrendForce 表示,预计 DeepSeek 的影响将推动云运营商转向成本更低的自研芯片,随着重点从 AI 训练转向推理,针对推理优化的服务器将占据更大的市场份额。
AI 服务器客户市场也可能变得更加细分,大型云计算公司将继续投资高性能解决方案,而企业则会优先考虑更经济的替代方案。
好文章,需要你的鼓励
OpenAI 发布三款全新专有语音模型,包括 gpt-4o-transcribe、gpt-4o-mini-transcribe 和 gpt-4o-mini-tts。这些模型基于 GPT-4o 开发,提供更准确的转录和语音合成能力,支持 100 多种语言,可通过 API 集成到第三方应用中。新模型在英语转录准确率方面表现出色,错误率仅为 2.46%,并支持语音定制和情感表达。
Nvidia 推出 DGX Cloud 基准测试工具包,帮助企业和开发者评估其基础设施运行先进 AI 模型的能力。该工具包提供性能测试容器和脚本,可在不同配置下测试 AI 模型性能,支持企业在大规模部署 AI 工作负载前做出明智决策,优化基础设施效能。
Nvidia 宣布与电力行业研发机构 EPRI 合作,利用 AI 技术解决电网面临的挑战。讽刺的是,这些问题主要源于 AI 本身带来的用电需求激增。Open Power AI 联盟将开源特定领域的 AI 模型,以应对电力行业未来的挑战,包括数据中心用电激增、可再生能源整合等问题。
NVIDIA 正全力打造从硬件到软件再到开发者工具的全栈式 AI 解决方案。在 2025 年 GPU 技术大会上,CEO 黄仁勋详细介绍了新一代 Blackwell B300 GPU、企业级 AI 超级计算机以及 AI 推理模型等创新产品,展现了 NVIDIA 在云计算、企业 IT、制造业和机器人等领域的全方位布局,致力于将 AI 技术推广到更广泛的应用场景。