随着超异构计算需求的升温,卖得少同样可以赚得多。
尽管2023年全球服务器出货量可能较上年减少20%,但厂商收益仍有望保持增长。而这背后的原因,正是由超异构计算推高的系统芯片附加值。

根据之前的相关报道,数据中心正根据AI工作负载的需求进行重塑。这种转变要求运营方设计出配置更高、成本更可观的计算系统,因此能够在总需求下降的背景下拉动硬件收入持续增长。
在最新发布的云与数据中心市场调查中,Omdia预测2023年全年服务器出货量将下降17%至20%,但收入却将增长6%到8%。
市场研究人员还专为这种趋势创造了新的术语:超异构计算,是指配置有协处理器以针对特定应用程序进行性能优化的服务器类型。
而反映这一整体趋势的典型实例,就是配备有AI加速器的服务器设备。Omdia表示大语言模型训练目前最流行的底层配置是英伟达DGX服务器,配备有8到个H100或A100 GPU。同样符合超异构计算标签的还有亚马逊的AI推理服务器,这些硬件配备有名为Inferentia 2的定制化协处理器。
超异构计算还涵盖采用其他协处理器类型的系统,例如搭载20个定制视频编码单元(VCU)的谷歌视频转码服务器。Facebook母公司Meta也拥有类似的硬件,其视频处理服务器上就配备有12块定制的Meta可扩展视频处理器(Scalable Video Processors)。
Omdia表示,这一趋势正在推高服务器中的芯片密度。预计到2027年,CPU与协处理器将占数据中心总支出的30%,远高于过去十年间的20%比例。
除了媒体处理和AI之外,Omdia预计数据库和网络服务等工作负载未来也将迎来类似的发展趋势。
目前很多数据库已经开始引入计算式存储的SSD形式加速器,可通过片上处理器提高键值性能。
从调查数据来看,微软和Meta的GPU部署速度超过了其他超大规模基础设施运营商。到今年年底,两家公司都将掌握15万个英伟达H100加速器,达到谷歌、亚马逊和甲骨文的3倍。
另据Omdia的调查,超大规模云服务商正在疯狂集中GPU资源,导致戴尔、联想和HPE等服务器制造商由于没有充足的英伟达配额而难以履行GPU服务器订单。目前对于配置H100 GPU的服务器,其交货周期已经延长至36至52周。
这些高配服务器的落地,也极大刺激了市场对于数据中心供电及冷却设施的需求。今年上半年,机架配电套件的收入同比增长17%,UPS套件支出也提高了7%。
此外,液体冷却系统预计将迎来大幅增长。Omdia通过OEMS发布的数据判断,今年直接芯片液冷支出将增长80%;超大规模供应商Supermicro也提到,预计第四季度出货的系统中将有20%配备液体冷却。
作为快速提升供电能力的一种重要方式,数据中心预制模块也开始兴起。Omdia发现部分供应商已经报告称,市场对这些包含额外开关、UPS、电池及配电套件的预制模块的需求增加了一倍。
Omdia预计,从现在到2027年,全球数据中心总支出将保持10%的年均增长率,届时总额将达到4684亿美元。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
NVIDIA研究团队开发的OmniVinci是一个突破性的多模态AI模型,能够同时理解视觉、听觉和文本信息。该模型仅使用0.2万亿训练样本就超越了使用1.2万亿样本的现有模型,在多模态理解测试中领先19.05分。OmniVinci采用三项核心技术实现感官信息协同,并在机器人导航、医疗诊断、体育分析等多个实际应用场景中展现出专业级能力,代表着AI向真正智能化发展的重要进步。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
Salesforce研究团队发布BLIP3o-NEXT,这是一个创新的图像生成模型,采用自回归+扩散的双重架构设计。该模型首次成功将强化学习应用于图像生成,在多物体组合和文字渲染方面表现优异。尽管只有30亿参数,但在GenEval测试中获得0.91高分,超越多个大型竞争对手。研究团队承诺完全开源所有技术细节。