赞助文章 尽管生成式 AI 和 GPU 加速 AI 训练与推理已经席卷全球,但全球数据中心仍然需要认真考虑 CPU 的问题。
首先,在大多数公司中,有数百到数千个后台工作负载在支撑业务运营,这些负载有时还需要关系型数据库的支持。毫无疑问,维护这些设备至关重要。
同时,对这些设备进行现代化改造也是一种方式,可以帮助支付未来几年在 AI 基础设施方面的巨额投资,无论公司是购买训练好的模型还是自行创建。无论如何,GenAI 都将是一项昂贵的投资,而通过降低通用服务器机群的成本,不仅可以减少这部分传统服务器机群的电力和冷却支出,还能同时提升其性能。
此外,配备大量核心、强大 I/O 和内存带宽的现代处理器,也是提高昂贵 AI 服务器机群投资回报的一种方式。根据 AMD 在配备八个 GPU 的服务器节点上进行的基准测试,像 "Turin" AMD Epyc 9575F 这样的高速 CPU 可以将 AI 推理性能提升高达 8%,AI 训练性能提升高达 20%。考虑到 GPU 的高昂成本,这种性能提升带来的收益远远超过了在 AI 主机上购买更快 CPU 所需的增量成本。
最后,在许多情况下,直接在 CPU 上运行 AI 算法是有意义的,因为现今的 CPU 完全有能力执行 AI 推理和轻量级 AI 训练所需的向量运算。因此,即使是在通用服务器机群中,拥有高性能 CPU 也很重要。
我们就这些问题与 AMD 服务器解决方案部门的公司副总裁 Madhu Rangarajan 进行了讨论,他负责产品管理、规划和营销工作。我们还探讨了一个观点:现在比以往任何时候都更需要考虑在数据中心部署单插槽服务器,摆脱传统的双插槽服务器思维。
如需了解更多关于 AMD 更新数据中心服务器机群的战略,请观看上方视频。
好文章,需要你的鼓励
Anthropic 发布新API,让Claude AI模型实时搜索网络资讯。开发者可定制搜索策略,构建实时信息应用。
Debian bookworm 作为 Raspberry Pi OS 的基础即将终结,本次更新带来了屏幕锁定、控制台登录拆分、打印机应用和触控支持等多项改进,同时优化了桌面性能和界面表现。
文章介绍 Canonical 的 Ubuntu 25.10 默认集成由 Rust 重写的 sudo 工具 sudo-rs,以提升内存安全性并减少缓冲区溢出等漏洞风险。
牛津大学Said商学院联合Sygnia推出首个网络韧性选修课,通过真实攻击模拟,培养MBA学员提升应对网络威胁的能力。