在将数千家主要IT硬件、软件及服务供应商的收入流汇总成数据中心市场趋势时,我们自然需要花费一些时间来获取具体数据、保证结果正确无误,而后再做整理以进行数据中心市场分析。也正因为如此,直到今年第三季度伊始,我们才从IDC手中拿到这份2024年第一季度数据中心基础设施支出的最终结果。
好消息是,IDC对于2024年数据中心计算与存储支出的预测有所上调,而且幅度还相当不小。其对未来五年内的支出预测,也高于IDC此前就全球数据中心计算和存储支出给出的数字。
在截至3月的首季度中,IDC估计全球市场在计算和存储容量上的支出总计达到544亿美元。其中一部分用于采购专用设备,这些产品被安置在专有数据中心或主机托管设施当中,并随时间推移进行摊销(即逐年分摊购置成本)。部分设备则被出售给共享云(由多家客户租用同一套设备)或作为专用硬件使用(可能位于数据中心、主机托管设施或者云环境内,每套设备只供一家客户使用)。
重要提示:以下收入数字反映的是厂商向最终客户或渠道合作伙伴销售的机器,而非来自云基础设施的租金收入。这是为了体现各季度间设备采购数额的价值关系,保证可以公平地纵向比较。(我们也很关注非云设备的摊销年收入与共享/专用云设备的年租金比较结果,但截至目前IDC和Gartner似乎都没有发布过这种形式的研究报告。)
本季度总支出高达544亿美元,较去年同期增长了46%。我们不清楚这笔资金中有多少来自本地AI系统采购或者租赁自云端的AI系统,但似乎有理由相信AI相关系统的支出占到其中约40%的比例——这笔开支中绝大部分用于租用AI系统容量,且主要由英伟达GPU提供支持。至于AI在计算和存储支出部分的份额可能更高,恐怕已经接近总开销的一半,但IDC并未在其数据中公开讨论这一比例。
在深入研究这些支出之后,IDC表示2024年第一季度,企业客户在共享云基础设施上花费了263亿美元,较去年同期增长了43.9%。专用云基础设施(我们称之为托管系统)的支出增长了15.3%,但落后于过去24个月间的季度平均值74亿美元。将二者相加,可以看到全部云基础设施(包括共享和专用两类)的支出增长了36.9%,达到330亿美元。非云基础设施(即常规系统采购)则仅增长5.7%,季度总额为139亿美元。
这次我们在IDC数据报告中看到的一项重大变化,在于2023年的销售数字经过了重新调整,共享云与专用云之间的划分方式也迎来了根本性转变,总体支出数字下调了8亿美元。诚然,与年内1089亿美元的总支出相比,这样的调整幅度并不算大。但IDC确实在2023年将共享云支出增加了47亿美元,同时将年内的专用云支出下调了39亿美元,这些都是相当重要的信号。
既然统计模型发生了如此重大的转变,让我们不得不怀疑这到底是为了提高对客观现实的反映准确性(即市场的行为并没有真正改变),还是在以新的方式体现并预测未来计算和存储市场即将出现的转变。
2024年数据中心计算与存储支出预测的变化幅度更大。今年早些时候,IDC曾预测共享云支出将达到953亿美元,专用云支出为346亿美元,而非云(即传统独立系统)支出则为579亿美元。
而如今IDC再次更改结论,认为今年全球共享云容量租赁总额将达到1083亿美元,上调幅度达130亿美元。我们认为这主要是由大规模AI支出所推动,其中专用云支出预测减少46亿美元,降低至300亿美元。非云计算及存储支出预计今年将增加69亿美元,这体现的主要是企业AI系统的采购以及对现有设备集群的升级等行动,以便在现有物理空间及供电配额之内为AI系统腾出更大空间。很明显,更高效的通用服务器将为AI系统释放出更大的空间、供电与预算额度。
从上表中可以看到,云基础设施预计将继续在整体计算及存储采购中占据越来越高的份额。两年前其占比为63.8%,去年为64.7%,预计今年将达到68.1%。而四年之后的2028年则有望进一步增长至73.6%。但按目前的情况推断,这一比例要达到100%还需要很长的时间。
哪怕是将观察视野扩大到全体服务提供商(包括超大规模基础设施运营商、云服务商、电信企业、托管服务商乃至其他服务机构),与企业、政府和学术界相比,其呈现的趋势也大致相同。
奇怪的是,作为一个整体,服务提供商在系统销售中所占的收入比例却与趋势存在出入。这应该是因为企业、政府和学术机构也在建立自己的云基础设施,甚至是构建自主AI系统,包括其他用于运行新型应用程序和数据存储的容器化平台。
由此看来,服务提供商也把部分支出花在了他们自己的内部业务运营平台之上,只是具体数额尚不明确。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。