随着超异构计算需求的升温,卖得少同样可以赚得多。
尽管2023年全球服务器出货量可能较上年减少20%,但厂商收益仍有望保持增长。而这背后的原因,正是由超异构计算推高的系统芯片附加值。

根据之前的相关报道,数据中心正根据AI工作负载的需求进行重塑。这种转变要求运营方设计出配置更高、成本更可观的计算系统,因此能够在总需求下降的背景下拉动硬件收入持续增长。
在最新发布的云与数据中心市场调查中,Omdia预测2023年全年服务器出货量将下降17%至20%,但收入却将增长6%到8%。
市场研究人员还专为这种趋势创造了新的术语:超异构计算,是指配置有协处理器以针对特定应用程序进行性能优化的服务器类型。
而反映这一整体趋势的典型实例,就是配备有AI加速器的服务器设备。Omdia表示大语言模型训练目前最流行的底层配置是英伟达DGX服务器,配备有8到个H100或A100 GPU。同样符合超异构计算标签的还有亚马逊的AI推理服务器,这些硬件配备有名为Inferentia 2的定制化协处理器。
超异构计算还涵盖采用其他协处理器类型的系统,例如搭载20个定制视频编码单元(VCU)的谷歌视频转码服务器。Facebook母公司Meta也拥有类似的硬件,其视频处理服务器上就配备有12块定制的Meta可扩展视频处理器(Scalable Video Processors)。
Omdia表示,这一趋势正在推高服务器中的芯片密度。预计到2027年,CPU与协处理器将占数据中心总支出的30%,远高于过去十年间的20%比例。
除了媒体处理和AI之外,Omdia预计数据库和网络服务等工作负载未来也将迎来类似的发展趋势。
目前很多数据库已经开始引入计算式存储的SSD形式加速器,可通过片上处理器提高键值性能。
从调查数据来看,微软和Meta的GPU部署速度超过了其他超大规模基础设施运营商。到今年年底,两家公司都将掌握15万个英伟达H100加速器,达到谷歌、亚马逊和甲骨文的3倍。
另据Omdia的调查,超大规模云服务商正在疯狂集中GPU资源,导致戴尔、联想和HPE等服务器制造商由于没有充足的英伟达配额而难以履行GPU服务器订单。目前对于配置H100 GPU的服务器,其交货周期已经延长至36至52周。
这些高配服务器的落地,也极大刺激了市场对于数据中心供电及冷却设施的需求。今年上半年,机架配电套件的收入同比增长17%,UPS套件支出也提高了7%。
此外,液体冷却系统预计将迎来大幅增长。Omdia通过OEMS发布的数据判断,今年直接芯片液冷支出将增长80%;超大规模供应商Supermicro也提到,预计第四季度出货的系统中将有20%配备液体冷却。
作为快速提升供电能力的一种重要方式,数据中心预制模块也开始兴起。Omdia发现部分供应商已经报告称,市场对这些包含额外开关、UPS、电池及配电套件的预制模块的需求增加了一倍。
Omdia预计,从现在到2027年,全球数据中心总支出将保持10%的年均增长率,届时总额将达到4684亿美元。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。