随着超异构计算需求的升温,卖得少同样可以赚得多。
尽管2023年全球服务器出货量可能较上年减少20%,但厂商收益仍有望保持增长。而这背后的原因,正是由超异构计算推高的系统芯片附加值。
根据之前的相关报道,数据中心正根据AI工作负载的需求进行重塑。这种转变要求运营方设计出配置更高、成本更可观的计算系统,因此能够在总需求下降的背景下拉动硬件收入持续增长。
在最新发布的云与数据中心市场调查中,Omdia预测2023年全年服务器出货量将下降17%至20%,但收入却将增长6%到8%。
市场研究人员还专为这种趋势创造了新的术语:超异构计算,是指配置有协处理器以针对特定应用程序进行性能优化的服务器类型。
而反映这一整体趋势的典型实例,就是配备有AI加速器的服务器设备。Omdia表示大语言模型训练目前最流行的底层配置是英伟达DGX服务器,配备有8到个H100或A100 GPU。同样符合超异构计算标签的还有亚马逊的AI推理服务器,这些硬件配备有名为Inferentia 2的定制化协处理器。
超异构计算还涵盖采用其他协处理器类型的系统,例如搭载20个定制视频编码单元(VCU)的谷歌视频转码服务器。Facebook母公司Meta也拥有类似的硬件,其视频处理服务器上就配备有12块定制的Meta可扩展视频处理器(Scalable Video Processors)。
Omdia表示,这一趋势正在推高服务器中的芯片密度。预计到2027年,CPU与协处理器将占数据中心总支出的30%,远高于过去十年间的20%比例。
除了媒体处理和AI之外,Omdia预计数据库和网络服务等工作负载未来也将迎来类似的发展趋势。
目前很多数据库已经开始引入计算式存储的SSD形式加速器,可通过片上处理器提高键值性能。
从调查数据来看,微软和Meta的GPU部署速度超过了其他超大规模基础设施运营商。到今年年底,两家公司都将掌握15万个英伟达H100加速器,达到谷歌、亚马逊和甲骨文的3倍。
另据Omdia的调查,超大规模云服务商正在疯狂集中GPU资源,导致戴尔、联想和HPE等服务器制造商由于没有充足的英伟达配额而难以履行GPU服务器订单。目前对于配置H100 GPU的服务器,其交货周期已经延长至36至52周。
这些高配服务器的落地,也极大刺激了市场对于数据中心供电及冷却设施的需求。今年上半年,机架配电套件的收入同比增长17%,UPS套件支出也提高了7%。
此外,液体冷却系统预计将迎来大幅增长。Omdia通过OEMS发布的数据判断,今年直接芯片液冷支出将增长80%;超大规模供应商Supermicro也提到,预计第四季度出货的系统中将有20%配备液体冷却。
作为快速提升供电能力的一种重要方式,数据中心预制模块也开始兴起。Omdia发现部分供应商已经报告称,市场对这些包含额外开关、UPS、电池及配电套件的预制模块的需求增加了一倍。
Omdia预计,从现在到2027年,全球数据中心总支出将保持10%的年均增长率,届时总额将达到4684亿美元。
好文章,需要你的鼓励
软件开发瓶颈是现代企业面临的关键挑战。本文探讨了消除瓶颈的有效策略,包括优化沟通、提高可视化、自动化流程和培养共同责任文化。专家建议通过异步更新、看板管理和自动化工具来提高效率。同时强调了数据质量、跨团队协作和持续改进的重要性。文章还提到了新兴技术如AI在解决瓶颈问题中的潜在应用。
随着人工智能技术的发展,深度伪造内容在网络上大量涌现,可能对我们的健康造成潜在威胁。从虚假名人代言到有害的AI生成医疗建议,深度伪造正在助长一波危险的虚假信息浪潮。本文探讨了深度伪造在医疗保健领域的负面影响,以及如何在这个充满虚假信息的时代保护自己的健康。
INCYMO.AI 推出了一个革新性的 AI 驱动创意平台,专注于移动游戏广告制作。该平台基于 10 万多个市场验证广告的数据分析,通过 AI 技术为游戏营销人员提供创意构思和广告生成服务。在创意疲劳、用户获取成本上升和隐私限制的当前环境下,该平台为游戏营销开辟了一条数据驱动的全新道路。
Databricks 与 Palantir 签署合作协议,开发出更优的大语言模型微调方法,并与 Anthropic 达成为期五年的战略联盟,将 Claude 大语言模型整合到其数据湖平台中。此次合作将为企业客户提供更强大的 AI 能力,包括军工级安全性、高效的模型训练以及全面的数据治理,助力企业打造专属 AI 应用。