赞助文章 尽管生成式 AI 和 GPU 加速 AI 训练与推理已经席卷全球,但全球数据中心仍然需要认真考虑 CPU 的问题。
首先,在大多数公司中,有数百到数千个后台工作负载在支撑业务运营,这些负载有时还需要关系型数据库的支持。毫无疑问,维护这些设备至关重要。
同时,对这些设备进行现代化改造也是一种方式,可以帮助支付未来几年在 AI 基础设施方面的巨额投资,无论公司是购买训练好的模型还是自行创建。无论如何,GenAI 都将是一项昂贵的投资,而通过降低通用服务器机群的成本,不仅可以减少这部分传统服务器机群的电力和冷却支出,还能同时提升其性能。
此外,配备大量核心、强大 I/O 和内存带宽的现代处理器,也是提高昂贵 AI 服务器机群投资回报的一种方式。根据 AMD 在配备八个 GPU 的服务器节点上进行的基准测试,像 "Turin" AMD Epyc 9575F 这样的高速 CPU 可以将 AI 推理性能提升高达 8%,AI 训练性能提升高达 20%。考虑到 GPU 的高昂成本,这种性能提升带来的收益远远超过了在 AI 主机上购买更快 CPU 所需的增量成本。
最后,在许多情况下,直接在 CPU 上运行 AI 算法是有意义的,因为现今的 CPU 完全有能力执行 AI 推理和轻量级 AI 训练所需的向量运算。因此,即使是在通用服务器机群中,拥有高性能 CPU 也很重要。
我们就这些问题与 AMD 服务器解决方案部门的公司副总裁 Madhu Rangarajan 进行了讨论,他负责产品管理、规划和营销工作。我们还探讨了一个观点:现在比以往任何时候都更需要考虑在数据中心部署单插槽服务器,摆脱传统的双插槽服务器思维。
如需了解更多关于 AMD 更新数据中心服务器机群的战略,请观看上方视频。
好文章,需要你的鼓励
OpenAI研究科学家Alexander Wei宣布,公司一个未发布的实验模型在国际数学奥林匹克竞赛中解决了六道题目中的五道,获得42分中的35分,达到金牌水平。该模型展现出类似人类数学家的推理能力,能够构建复杂严密的论证。这标志着AI在创造性问题解决方面的重要突破,不过该技术预计数月内不会公开发布。
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
本文探讨了判断AI是否达到通用人工智能(AGI)和人工超级智能(ASI)水平所需的问题数量。目前缺乏确定的测试方法来评估是否达到顶级AI水平。基于图灵测试的分析,作者提出仅通过少量问题难以全面评估智能水平。参考美国国会图书馆主题标引(LCSH)的40万个主题领域,如果每个领域提出1万个问题,将需要40亿个问题来全面测试AGI。这种大规模测试虽然在逻辑上合理,但在实际操作中面临巨大挑战。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。