随着超异构计算需求的升温,卖得少同样可以赚得多。
尽管2023年全球服务器出货量可能较上年减少20%,但厂商收益仍有望保持增长。而这背后的原因,正是由超异构计算推高的系统芯片附加值。

根据之前的相关报道,数据中心正根据AI工作负载的需求进行重塑。这种转变要求运营方设计出配置更高、成本更可观的计算系统,因此能够在总需求下降的背景下拉动硬件收入持续增长。
在最新发布的云与数据中心市场调查中,Omdia预测2023年全年服务器出货量将下降17%至20%,但收入却将增长6%到8%。
市场研究人员还专为这种趋势创造了新的术语:超异构计算,是指配置有协处理器以针对特定应用程序进行性能优化的服务器类型。
而反映这一整体趋势的典型实例,就是配备有AI加速器的服务器设备。Omdia表示大语言模型训练目前最流行的底层配置是英伟达DGX服务器,配备有8到个H100或A100 GPU。同样符合超异构计算标签的还有亚马逊的AI推理服务器,这些硬件配备有名为Inferentia 2的定制化协处理器。
超异构计算还涵盖采用其他协处理器类型的系统,例如搭载20个定制视频编码单元(VCU)的谷歌视频转码服务器。Facebook母公司Meta也拥有类似的硬件,其视频处理服务器上就配备有12块定制的Meta可扩展视频处理器(Scalable Video Processors)。
Omdia表示,这一趋势正在推高服务器中的芯片密度。预计到2027年,CPU与协处理器将占数据中心总支出的30%,远高于过去十年间的20%比例。
除了媒体处理和AI之外,Omdia预计数据库和网络服务等工作负载未来也将迎来类似的发展趋势。
目前很多数据库已经开始引入计算式存储的SSD形式加速器,可通过片上处理器提高键值性能。
从调查数据来看,微软和Meta的GPU部署速度超过了其他超大规模基础设施运营商。到今年年底,两家公司都将掌握15万个英伟达H100加速器,达到谷歌、亚马逊和甲骨文的3倍。
另据Omdia的调查,超大规模云服务商正在疯狂集中GPU资源,导致戴尔、联想和HPE等服务器制造商由于没有充足的英伟达配额而难以履行GPU服务器订单。目前对于配置H100 GPU的服务器,其交货周期已经延长至36至52周。
这些高配服务器的落地,也极大刺激了市场对于数据中心供电及冷却设施的需求。今年上半年,机架配电套件的收入同比增长17%,UPS套件支出也提高了7%。
此外,液体冷却系统预计将迎来大幅增长。Omdia通过OEMS发布的数据判断,今年直接芯片液冷支出将增长80%;超大规模供应商Supermicro也提到,预计第四季度出货的系统中将有20%配备液体冷却。
作为快速提升供电能力的一种重要方式,数据中心预制模块也开始兴起。Omdia发现部分供应商已经报告称,市场对这些包含额外开关、UPS、电池及配电套件的预制模块的需求增加了一倍。
Omdia预计,从现在到2027年,全球数据中心总支出将保持10%的年均增长率,届时总额将达到4684亿美元。
好文章,需要你的鼓励
Aqara Hub M200是进入Aqara生态系统的新入口,作为支持Matter的Zigbee 3.0中枢,可将传感器、开关、按钮等配件通过Matter共享到HomeKit。相比Hub M3设计更紧凑,支持2.4和5GHz双频Wi-Fi。M200充分利用Zigbee协议的低成本优势,让用户以更实惠的价格构建智能家居,同时享受完整的HomeKit功能。对于HomeKit用户来说,这是一个稳定可靠的桥接方案。
腾讯AI实验室联合港校提出RePlan框架,解决复杂图像编辑中的指令理解和精确定位难题。该方法采用"计划-执行"架构,让视觉语言模型先推理制定区域级编辑计划,再通过创新的注意力机制精确执行。仅用1000个样本训练就超越了大规模数据训练的模型,在新建的IV-Edit基准上表现出色。
LG电视通过系统更新强制安装微软Copilot快捷方式引发争议。虽然LG承诺将允许用户删除该图标,但仍计划在webOS系统中深度整合Copilot功能。三星等厂商也在推进类似AI功能。专家指出,智能电视内置聊天机器人会增加隐私追踪的复杂性,加剧系统臃肿问题。当前智能电视行业正通过用户追踪和广告实现软件盈利,消费者应关注隐私保护问题。
这项由香港科技大学等机构联合完成的研究首次让AI获得了原生的3D空间理解能力。N3D-VLM系统能够像人类一样准确感知物体的立体位置关系,先精确定位物体的3D边界框,再进行空间推理。研究团队还开发了巧妙的数据生成方法,将2D标注转换为278万个3D样本,并构建了全新的N3D-Bench测试基准。实验显示该系统在空间推理任务上准确率超过90%,远超现有方法,为机器人、自动驾驶等领域提供了重要技术突破。