随着超异构计算需求的升温,卖得少同样可以赚得多。
尽管2023年全球服务器出货量可能较上年减少20%,但厂商收益仍有望保持增长。而这背后的原因,正是由超异构计算推高的系统芯片附加值。
根据之前的相关报道,数据中心正根据AI工作负载的需求进行重塑。这种转变要求运营方设计出配置更高、成本更可观的计算系统,因此能够在总需求下降的背景下拉动硬件收入持续增长。
在最新发布的云与数据中心市场调查中,Omdia预测2023年全年服务器出货量将下降17%至20%,但收入却将增长6%到8%。
市场研究人员还专为这种趋势创造了新的术语:超异构计算,是指配置有协处理器以针对特定应用程序进行性能优化的服务器类型。
而反映这一整体趋势的典型实例,就是配备有AI加速器的服务器设备。Omdia表示大语言模型训练目前最流行的底层配置是英伟达DGX服务器,配备有8到个H100或A100 GPU。同样符合超异构计算标签的还有亚马逊的AI推理服务器,这些硬件配备有名为Inferentia 2的定制化协处理器。
超异构计算还涵盖采用其他协处理器类型的系统,例如搭载20个定制视频编码单元(VCU)的谷歌视频转码服务器。Facebook母公司Meta也拥有类似的硬件,其视频处理服务器上就配备有12块定制的Meta可扩展视频处理器(Scalable Video Processors)。
Omdia表示,这一趋势正在推高服务器中的芯片密度。预计到2027年,CPU与协处理器将占数据中心总支出的30%,远高于过去十年间的20%比例。
除了媒体处理和AI之外,Omdia预计数据库和网络服务等工作负载未来也将迎来类似的发展趋势。
目前很多数据库已经开始引入计算式存储的SSD形式加速器,可通过片上处理器提高键值性能。
从调查数据来看,微软和Meta的GPU部署速度超过了其他超大规模基础设施运营商。到今年年底,两家公司都将掌握15万个英伟达H100加速器,达到谷歌、亚马逊和甲骨文的3倍。
另据Omdia的调查,超大规模云服务商正在疯狂集中GPU资源,导致戴尔、联想和HPE等服务器制造商由于没有充足的英伟达配额而难以履行GPU服务器订单。目前对于配置H100 GPU的服务器,其交货周期已经延长至36至52周。
这些高配服务器的落地,也极大刺激了市场对于数据中心供电及冷却设施的需求。今年上半年,机架配电套件的收入同比增长17%,UPS套件支出也提高了7%。
此外,液体冷却系统预计将迎来大幅增长。Omdia通过OEMS发布的数据判断,今年直接芯片液冷支出将增长80%;超大规模供应商Supermicro也提到,预计第四季度出货的系统中将有20%配备液体冷却。
作为快速提升供电能力的一种重要方式,数据中心预制模块也开始兴起。Omdia发现部分供应商已经报告称,市场对这些包含额外开关、UPS、电池及配电套件的预制模块的需求增加了一倍。
Omdia预计,从现在到2027年,全球数据中心总支出将保持10%的年均增长率,届时总额将达到4684亿美元。
好文章,需要你的鼓励
AMD CIO的职能角色早已超越典型的CIO职务,他积极支持内部产品开发,一切交付其他部门的方案都要先经过他的体验和评判。
医学生在选择专业时,应当考虑到AI将如何改变医生的岗位形态(以及获得的薪酬待遇)。再结合专业培训所对应的大量时间投入和跨专业的高门槛,这一点就更显得至关重要。
我们拥有大量数据,有很多事情要做,然后出现了一种有趣的技术——生成式AI,给他们所有人带来的影响。这种影响是巨大的,我们在这个领域正在做着惊人的工作。