这对相互矛盾的反馈数据,令2023年的走势更加难以预测。
研究机构Omdia表示,企业和云服务商间的优先关注方向有所区别,进而掀起两股相互冲突的显著趋势。首先,市场对于计算资源的需求仍然很高,ChatGPT的爆红也激发了人们对于AI训练的兴趣;但与此同时,服务器出货量却有所下降。
Omdia发布的《云与数据中心市场更新》报告预计,今年的服务器出货量将出现自2007-2008全球金融危机以来的首次萎缩。报告同时警告称,这对相互矛盾的反馈和数据点将使得2023年成为难以预测的一年。
报告认为,这种割裂源自企业买家和大型云服务商在优先关注方向上的差异。从目前的趋势来看,随着近期ChatGPT掀起的生成式AI模型的热潮,为AI模型训练用例配备昂贵服务器成为普遍共识,且优先度高于常规的服务器更新周期。
Omdia指出,2023年第一季度全球市场共售出280万台服务器,远远低于此前预期、特别是服务器OEM厂商的估计。报告提到,2022年第四季度到2023年第一季度服务器的出货量降幅,也已经创下历史新纪录。
根据OEM厂商给出的反馈,不少企业现在不愿投入大型项目,甚至选择缩减IT支出。这一点在北美各金融服务和制造企业中体现得尤其明显。
但与此同时,第一季度云服务商的服务器采购量据称表现良好。只是第二季度的销售额急剧下降,迫使Omdia调整了全年预测,目前估计全年云服务巨头的总体服务器采购量将缩水2%。
Omdia在报告中提到,微软、谷歌和Meta在今年第一季度还在采购新服务器,但AWS的新服务器装机量则开始收缩。到第二季度,AWS和Meta双双选择削减支出。
影响市场的另一个因素,就是服务器的生命周期有所延长。Omdia在报告中指出,目前所有大型云服务商均已为服务器套件设下6年的正常使用寿命,而二级服务商的服务器套件使用寿命则延长至9到10年。
预计云服务市场的这种割裂态势将很快成为常态。一方面,云服务商采购高端服务器硬件用以支持AI用例,另一方面则尽可能延长旧服务器生命周期以充分发挥其价值。Omdia表示这种趋势并不新鲜,但整体模式似乎有蔓延之势。
欧洲云服务商OVHcloud近期也表示,他们正在考虑采取这种策略,因为相当一部分客户并不需要过高的性能,反而更倾向于选择优惠力度更大的6年、7年、8年甚至10年前的服务器硬件。
Omdia表示,自疫情爆发以来,翻新二手服务器的部署量激增,这主要是为了解决半导体供应短缺导致的交付时间过长问题。
OVH还运营一条“逆向供应链”,即将旧服务器返回自家工厂(OVHcloud拥有自己的服务器组装厂)进行拆卸和分组件测试,看看能否继续使用或通过经纪人出售至回收市场。
这也与Omdia观察到的趋势相符。报告指出,某些组件的使用寿命要比整体服务器的生命周期更长,而对这部分组件的回收和再利用已经成为云服务商的关注重点。其中重复使用率最高的内存模块,其次是电源和以太网适配器。
展望未来,Omdia预计在这种服务器更新周期的推动下,服务器安装基数的增幅将有所放缓,而高端新服务器的出货量则将保持加速。
但Omdia也总结称,数据中心行业的总体健康状况良好,超大规模企业的资本支出仍处于较高水平。目前,数据中心建设(单位为平方英尺/平方米)继续以年均10%的速度保持增长。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。