赞助文章 尽管生成式 AI 和 GPU 加速 AI 训练与推理已经席卷全球,但全球数据中心仍然需要认真考虑 CPU 的问题。
首先,在大多数公司中,有数百到数千个后台工作负载在支撑业务运营,这些负载有时还需要关系型数据库的支持。毫无疑问,维护这些设备至关重要。
同时,对这些设备进行现代化改造也是一种方式,可以帮助支付未来几年在 AI 基础设施方面的巨额投资,无论公司是购买训练好的模型还是自行创建。无论如何,GenAI 都将是一项昂贵的投资,而通过降低通用服务器机群的成本,不仅可以减少这部分传统服务器机群的电力和冷却支出,还能同时提升其性能。
此外,配备大量核心、强大 I/O 和内存带宽的现代处理器,也是提高昂贵 AI 服务器机群投资回报的一种方式。根据 AMD 在配备八个 GPU 的服务器节点上进行的基准测试,像 "Turin" AMD Epyc 9575F 这样的高速 CPU 可以将 AI 推理性能提升高达 8%,AI 训练性能提升高达 20%。考虑到 GPU 的高昂成本,这种性能提升带来的收益远远超过了在 AI 主机上购买更快 CPU 所需的增量成本。
最后,在许多情况下,直接在 CPU 上运行 AI 算法是有意义的,因为现今的 CPU 完全有能力执行 AI 推理和轻量级 AI 训练所需的向量运算。因此,即使是在通用服务器机群中,拥有高性能 CPU 也很重要。
我们就这些问题与 AMD 服务器解决方案部门的公司副总裁 Madhu Rangarajan 进行了讨论,他负责产品管理、规划和营销工作。我们还探讨了一个观点:现在比以往任何时候都更需要考虑在数据中心部署单插槽服务器,摆脱传统的双插槽服务器思维。
如需了解更多关于 AMD 更新数据中心服务器机群的战略,请观看上方视频。
好文章,需要你的鼓励
傍晚的阶梯教室里,一名设计系学生正通过AI生成的3D模型调整设计方案。从前改一版设计总要通宵建模,现在用AI就能同步生成很多种参数组合。
文章探讨了当前科技行业面临的负面看法,以及CIO如何改变这种状况。建议CIO应该重新赢得利益相关者的信任,专注于切实改善客户和员工的工作体验,而不是华而不实的技术。文章提出了一些具体策略,如使用四象限矩阵分析问题优先级,将焦点从当前的不满转移到对未来的期待上等。
埃隆·马斯克的人工智能公司 xAI 推出了备受期待的旗舰 AI 模型 Grok 3。新模型推出后,Grok 应用的下载量和活跃用户数大幅增长。然而,近期围绕 Grok 3 的争议可能会影响用户的热情。能否保持增长势头并留住用户,成为 xAI 面临的重要挑战。
Google 宣布面向个人开发者的 Gemini Code Assist 正式推出公开预览版。这款强大的 AI 编程助手每月提供高达 18 万次代码补全,远超其他同类产品。它支持多种编程语言和开发环境,通过自然语言交互为用户提供代码生成、补全和调试等全方位辅助,旨在让学生、爱好者和自由职业者等个人开发者也能便捷地使用先进的 AI 编程工具。