对于全球经济赖以运转的重要细分市场来说,针对信息技术整理出完整的季度与年度数据集确实相当困难。我们尝试收集了所能找到的一切信息,并尽可能对内容加以充实,希望在揭示趋势的同时探索关于IT采购、销售与投资的变化规律。
这里有翔实的数据,也有推断与猜想,下面马上开始。
IDC刚刚发布2023年第三季度最新数据中心基础设施支出报告,其中对2023年全年的预测也让我们能够轻松拆分出去年最后一个季度的服务器与存储支出情况。毕竟只要将全年结果减去前三季度的真实数据,就能得出IDC关于第四季度的基本推断。
根据IDC这份《全球季度性企业基础设施跟踪:买家与云部署》报告,可以看到第三季度各超大规模基础设施运营商、云服务商、企业及其他组织的存储与服务器总支出达到402亿美元,同比下降1.5%。各类服务提供商(包括超大规模基础设施运营商、云服务商、电信企业及其他类型的服务提供商)占总支出的61.7%,同比增长7%,达到249亿美元。企业、政府机构、研究机构和教育机构的服务器与存储支出下降了6.3%,来到153亿美元,共占服务器与存储支出的38.3%。
自2014年以来,IDC开始将以云方式使用的基础设施(用以支持虚拟或容器化工作负载)从服务器和存储市场中拆分出来,而不再像之前的企业数据中心那样基于运行数据库/ERP的裸机负载和用于仿真/建模的应用程序/HPC系统。由此得出的云与非云基础设施支出趋势如下图所示:
而从2016年开始,IDC对云支出部分做出更合理的细分,将其拆分为专有云(即用于在主机托管设施或在企业自有数据中心内托管特定业务应用程序的系统)和共享云服务商(包括亚马逊云科技、微软Azure、Google Cloud乃至其他数百家大小云服务商按小时/月/年出租的公有云资源)两类。
总体云数据的发布让我们掌握了云服务商在基础设施方面的投入,但却无法具体量化其中超大规模基础设施运营商的占比。对于像Meta Platforms这样的超大规模基础设施运营商来说,他们并不对外销售其大型系统上的容量,所以我们不确定其在IDC报告中的比例。所以这里我们提出假设,即将超大规模基础设施运营商划入共享云范畴,将其视为提供免费SaaS产品、并通过广告赚取收益。
IDC给出的另一个有趣细分指标,就是将专有云支出再分成两个部分:其一专供本地使用(即企业出于自身使用的托管设施,乃至其他在专有基础设施之上构建的方案);其二则是从AWS Outposts、Microsoft Azure Stacks、Google Anthos等大型服务商处购买,以及(我们推测)根据HPE GreenLake、Dell Apex、Lenovo TruScale 或类似公共事业定价项目购买的系统。
由此可以明显看出,非云、裸机系统每季度支出大致在150亿美元上下徘徊,而云基础设施则持续增长,预计在2023年第四季度将接近300亿美元。(再等三个月,IDC将会发布2023年第四季度的具体统计结果。)
请注意:这里的共享云数字并不是最终企业用户及其他组织每季度采购云容量的实际支出。从各大公有云服务商的收入流来看,实际数字要高出许多倍。
针对这套特定IDC数据集,我们还特别对过去五年间的变化趋势进行了总结。
以下是IDC的预测图表:
可以看到,超大规模基础设施运营商和云服务商的服务器与存储支出占比正逐渐逼近50%。但除此之外,图表中就没有太多有价值信息了。也正因为如此,我们更倾向使用原始数据,例如我们在下表当中整理和计算得出的结果:
上表仅包含2022年的数据,以及2023年至2027年间的预测,希望帮助大家更好地了解服务器和存储市场的整体走向。
如大家所见,IDC预计服务器和存储整体市场在2022年至2027年(含)期间将保持7.4%的年均复合增长率,最终达到2209亿美元。网络投资属于增量性支出,我们暂不清楚IDC如何看待这项指标。到本预测周期末尾,云基础设施(包括共享与专有)将在全球服务器与存储支出中占比70.5%。我们还尝试将专有云基础设施拆分为本地和云端两个类别,并推测受公共事业定价和企业对基础设施保持物理控制权的现实需求两大因素影响,本地专有云份额将迎来上升、而非下降。当然,对于瞬息万变的技术行业来说,2027年已经是颇为遥远的未来,这些猜测仅供大家参考。
从预测结果中可以看到,非云部分在2023年第四季度的市场表现相当糟糕,全年销售额将下降7.7%至587亿美元。而如果根据IDC提供的数据进行计算,则第四季度服务器与存储支出总体增长4.4%,达到447亿美元;其中非云支出部分将下降16.3%,来到157亿美元。不过这种下降也许不会长期维持,因为预计2022年至2027年间非云基础设施支出的五年复合增长率将为1.6%,到预测周期末尾将达到689亿美元。
而且更重要的是,服务器和存储支出预计将超过全球国内生产总值(GDP)增幅的2.5倍,至少我们在互联网上找到的统计数据反映出了这样的结论。虽然无法保证这个比率能够长期保持下去,但这样的结果仍然合乎情理。IT设施正变得越来越昂贵也越来越普遍,只要大多数人对于计算资源仍有旺盛的需求,IT部门应该就能较一般GDP保持住2.5倍的增长速度。
最后,我们真诚希望有哪家咨询企业能公布一份AI服务器与其他服务器的细分支出数据。面对这波席卷全球的生成式AI浪潮,也许AI与非AI基础设施之间的对比更能帮助我们理解技术世界的下一步走向。
好文章,需要你的鼓励
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。