数据中心硬件一直在幕后默默运行,为现代计算的关键系统提供动力。虽然它可能不像 AI 突破或绿色能源计划那样引人注目,但硬件领域正在快速发展,当前的创新正在重塑着数据中心的未来运作方式。
从前沿芯片架构到先进存储解决方案和智能管理技术,硬件发展趋势在推动效率和性能提升方面发挥着关键作用。
让我们来探讨将在 2025 年塑造行业的五个关键数据中心硬件议题。
1. AI 加速器硬件投资
如果您近年来关注 AI 对数据中心的影响,您可能已经知道,许多 AI 工作负载在专用 AI 加速器硬件上运行时表现最佳。
因此,当前最重要的数据中心硬件趋势之一就是对 AI 加速器的投资。
我个人认为,随着 AI 技术日趋成熟,企业不再持续启动 AI 实验或概念验证项目,数据中心对 AI 友好型硬件的需求最终将受到限制。但不可否认的是,到 2025 年,AI 加速器将占据数据中心硬件中越来越大的份额。
2. DPU 部署增长
除了专门为 AI 设计的硬件设备外,2025 年还将见证数据中心其他类型硬件优化的增长投资,例如数据处理单元 (DPU)。
DPU 可以处理网络流量管理等原本由 CPU 承担的任务。通过这种方式,DPU 减轻了 CPU 的负载,最终为应用程序提供更大的计算能力。
DPU 已经存在多年,但作为提升资源密集型工作负载(如 AI 训练)性能的方式,它们变得尤为重要。(需要明确的是,DPU 不是 AI 加速器,但可以与 AI 加速器一起使用,使服务器更有效地处理计算密集型任务。)这就是为什么我认为 DPU 即将迎来它们的高光时刻。
3. 先进硬件散热技术的扩展应用
数据中心硬件会产生大量热量。在典型的数据中心中,散热策略几十年来几乎没有改变,主要依靠向服务器吹送空气。
但还有其他方法,包括直接芯片冷却和液体浸没冷却。这些方法的能源效率要高得多,还可能通过减少过热事件来延长硬件寿命。
历史上,由于安装先进冷却系统的高成本,更复杂的数据中心冷却技术的使用受到限制。但随着 AI 和热浪带来越来越大的冷却挑战,先进的硬件冷却解决方案可能在 2025 年及以后对数据中心运营商更具吸引力。
4. 关注硬件安全风险
近期事件凸显了与物理硬件设备相关的安全威胁风险。虽然我怀疑目前没有人打算通过在服务器内放置秘密炸弹来炸毁数据中心,但我确实怀疑有威胁者正在试图做一些事情,比如在服务器上植入恶意固件,作为他们入侵数据中心的后门。
因此,我认为在 2025 年,我们将看到对验证数据中心硬件来源的更多关注,确保在制造和运输过程中没有未经授权的方访问设备。传统的安全控制仍然重要,但我认为硬件安全将在未来一年成为更受关注的领域。
5. 数据中心对 Arm 服务器的兴趣增长
我将以一个可能证明是错误但合理的预测来结束 2025 年数据中心硬件趋势清单:2025 年可能是 Arm 服务器在数据中心中变得普及的一年。
Arm 服务器是使用 Arm 架构而不是 x86 架构的服务器,后者历来是几乎所有服务器使用的芯片设计。Arm 架构可能带来包括更好的能源效率在内的多种好处。
长期以来一直有在数据中心更广泛部署 Arm 芯片的讨论。到目前为止,这种情况尚未发生。但有充分理由相信这种情况可能在 2025 年出现,特别是由于 AI 时代数据中心能源消耗问题日益受到关注。从理论上讲,Arm 服务器可以提高数据中心的能源效率,这不仅限于托管 AI 工作负载的数据中心。
总的来说,我不会押太多赌注认为 2025 年将成为 Arm 服务器之年,主要是因为迁移到 Arm 需要对软件进行的更改超出了大多数组织的准备程度。但引用我年轻时麦当劳的广告语:"嘿,这是可能发生的。"
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。