赞助文章 尽管生成式 AI 和 GPU 加速 AI 训练与推理已经席卷全球,但全球数据中心仍然需要认真考虑 CPU 的问题。
首先,在大多数公司中,有数百到数千个后台工作负载在支撑业务运营,这些负载有时还需要关系型数据库的支持。毫无疑问,维护这些设备至关重要。
同时,对这些设备进行现代化改造也是一种方式,可以帮助支付未来几年在 AI 基础设施方面的巨额投资,无论公司是购买训练好的模型还是自行创建。无论如何,GenAI 都将是一项昂贵的投资,而通过降低通用服务器机群的成本,不仅可以减少这部分传统服务器机群的电力和冷却支出,还能同时提升其性能。
此外,配备大量核心、强大 I/O 和内存带宽的现代处理器,也是提高昂贵 AI 服务器机群投资回报的一种方式。根据 AMD 在配备八个 GPU 的服务器节点上进行的基准测试,像 "Turin" AMD Epyc 9575F 这样的高速 CPU 可以将 AI 推理性能提升高达 8%,AI 训练性能提升高达 20%。考虑到 GPU 的高昂成本,这种性能提升带来的收益远远超过了在 AI 主机上购买更快 CPU 所需的增量成本。
最后,在许多情况下,直接在 CPU 上运行 AI 算法是有意义的,因为现今的 CPU 完全有能力执行 AI 推理和轻量级 AI 训练所需的向量运算。因此,即使是在通用服务器机群中,拥有高性能 CPU 也很重要。
我们就这些问题与 AMD 服务器解决方案部门的公司副总裁 Madhu Rangarajan 进行了讨论,他负责产品管理、规划和营销工作。我们还探讨了一个观点:现在比以往任何时候都更需要考虑在数据中心部署单插槽服务器,摆脱传统的双插槽服务器思维。
如需了解更多关于 AMD 更新数据中心服务器机群的战略,请观看上方视频。
好文章,需要你的鼓励
OpenAI 本周为 ChatGPT 添加了 AI 图像生成功能,用户可直接在对话中创建图像。由于使用量激增,CEO Sam Altman 表示公司的 GPU "正在融化",不得不临时限制使用频率。新功能支持工作相关图像创建,如信息图表等,但在图像编辑精确度等方面仍存在限制。值得注意的是,大量用户正在使用该功能创作吉卜力动画风格的图像。
Synopsys 近期推出了一系列基于 AMD 最新芯片的硬件辅助验证和虚拟原型设计工具,包括 HAPS-200 原型系统和 ZeBu-200 仿真系统,以及面向 Arm 硬件的 Virtualizer 原生执行套件。这些创新工具显著提升了芯片设计和软件开发的效率,有助于加快产品上市速度,满足当前 AI 时代下快速迭代的需求。
人工智能正在深刻改变企业客户关系管理 (CRM) 的方方面面。从销售自动化、营销内容生成到客服智能化,AI不仅提升了运营效率,还带来了全新的服务模式。特别是自主代理AI (Agentic AI) 的出现,有望在多渠道无缝接管客户服务职能,开创CRM发展新纪元。
数据孤岛长期困扰着组织,影响着人工智能的可靠性。它们导致信息分散、模型训练不完整、洞察力不一致。解决方案包括实施强大的数据治理、促进跨部门协作、采用现代数据集成技术等。克服数据孤岛对于充分发挥AI潜力至关重要。