这对相互矛盾的反馈数据,令2023年的走势更加难以预测。
研究机构Omdia表示,企业和云服务商间的优先关注方向有所区别,进而掀起两股相互冲突的显著趋势。首先,市场对于计算资源的需求仍然很高,ChatGPT的爆红也激发了人们对于AI训练的兴趣;但与此同时,服务器出货量却有所下降。

Omdia发布的《云与数据中心市场更新》报告预计,今年的服务器出货量将出现自2007-2008全球金融危机以来的首次萎缩。报告同时警告称,这对相互矛盾的反馈和数据点将使得2023年成为难以预测的一年。
报告认为,这种割裂源自企业买家和大型云服务商在优先关注方向上的差异。从目前的趋势来看,随着近期ChatGPT掀起的生成式AI模型的热潮,为AI模型训练用例配备昂贵服务器成为普遍共识,且优先度高于常规的服务器更新周期。
Omdia指出,2023年第一季度全球市场共售出280万台服务器,远远低于此前预期、特别是服务器OEM厂商的估计。报告提到,2022年第四季度到2023年第一季度服务器的出货量降幅,也已经创下历史新纪录。
根据OEM厂商给出的反馈,不少企业现在不愿投入大型项目,甚至选择缩减IT支出。这一点在北美各金融服务和制造企业中体现得尤其明显。
但与此同时,第一季度云服务商的服务器采购量据称表现良好。只是第二季度的销售额急剧下降,迫使Omdia调整了全年预测,目前估计全年云服务巨头的总体服务器采购量将缩水2%。
Omdia在报告中提到,微软、谷歌和Meta在今年第一季度还在采购新服务器,但AWS的新服务器装机量则开始收缩。到第二季度,AWS和Meta双双选择削减支出。
影响市场的另一个因素,就是服务器的生命周期有所延长。Omdia在报告中指出,目前所有大型云服务商均已为服务器套件设下6年的正常使用寿命,而二级服务商的服务器套件使用寿命则延长至9到10年。
预计云服务市场的这种割裂态势将很快成为常态。一方面,云服务商采购高端服务器硬件用以支持AI用例,另一方面则尽可能延长旧服务器生命周期以充分发挥其价值。Omdia表示这种趋势并不新鲜,但整体模式似乎有蔓延之势。
欧洲云服务商OVHcloud近期也表示,他们正在考虑采取这种策略,因为相当一部分客户并不需要过高的性能,反而更倾向于选择优惠力度更大的6年、7年、8年甚至10年前的服务器硬件。
Omdia表示,自疫情爆发以来,翻新二手服务器的部署量激增,这主要是为了解决半导体供应短缺导致的交付时间过长问题。
OVH还运营一条“逆向供应链”,即将旧服务器返回自家工厂(OVHcloud拥有自己的服务器组装厂)进行拆卸和分组件测试,看看能否继续使用或通过经纪人出售至回收市场。
这也与Omdia观察到的趋势相符。报告指出,某些组件的使用寿命要比整体服务器的生命周期更长,而对这部分组件的回收和再利用已经成为云服务商的关注重点。其中重复使用率最高的内存模块,其次是电源和以太网适配器。
展望未来,Omdia预计在这种服务器更新周期的推动下,服务器安装基数的增幅将有所放缓,而高端新服务器的出货量则将保持加速。
但Omdia也总结称,数据中心行业的总体健康状况良好,超大规模企业的资本支出仍处于较高水平。目前,数据中心建设(单位为平方英尺/平方米)继续以年均10%的速度保持增长。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。