UnifabriX 表示,其基于 CXL 连接的外部 MAX 内存设备可以显著提升 AI 处理性能。
在之前的一篇文章中介绍了该公司的 MAX 内存技术。UnifabriX CEO Ronen Hyatt 引用了 Amir Gholami 等人的"AI 和内存墙"研究论文来说明他的观点。研究人员指出:"空前的无监督训练数据以及神经网络扩展法则,导致模型规模和大语言模型的训练/服务计算需求激增。然而,主要性能瓶颈正逐渐转向内存带宽。在过去 20 年中,服务器硬件峰值 FLOPS 每两年增长 3.0 倍,远超过 DRAM 和互连带宽的增长速度,后两者每两年仅分别增长 1.6 倍和 1.4 倍。这种差异使得内存,而非计算能力,成为 AI 应用的主要瓶颈,特别是在服务部署方面。"
论文中的图表展示了这种影响: 内存墙即是内存带宽与硬件峰值 FLOPS 之间的差距。
论文作者总结道:"为了更好地理解这些数字,过去 20 年间,硬件峰值 FLOPS 增长了 60,000 倍,而 DRAM/互连带宽在同期仅分别增长了 100 倍/30 倍。在这种趋势下,内存——特别是芯片内部/芯片间的内存传输——将很快成为部署大型 AI 模型的主要限制因素。因此,我们需要重新思考 AI 模型的训练、部署和设计方式,以及如何设计 AI 硬件来应对这个日益严峻的内存墙挑战。"
Hyatt 修改了图表,加入了 PCIe 总线各代以及 CXL 和 NVLink 的扩展线,显示 IO 架构速度的增长同样未能跟上硬件峰值 FLOPS 的步伐。
即使使用 InfiniBand 连接 NAND 驱动器,GPU 服务器的内存和闪存存储之间仍存在性能差距。通过 CXL (未来还有 UALink) 连接外部内存,可以缓解这一性能差距。
Hyatt 表示,内存架构优于 InfiniBand 网络,能够提供更高的性能,而 CXL 和 UALink 是可与 Nvidia 专有 NVLink 相媲美的开放内存架构标准。
除了提升性能外,UnifabriX 的 MAX 内存还可以节省成本。
在 UnifabriX 的示例场景中,16 台服务器(包括 4 台 GPU 服务器)中,每台配置 6 TB DRAM,总容量为 96 TB。总内存成本为 160 万美元,而 UnifabriX 指出内存利用率不到 30%。
通过添加一个容量为 30 TB 的 MAX 内存单元,这 16 台服务器现在每台可以配置 2.25 TB 内存,总计 66 TB 内存,成本为 67 万美元,且具有更高的利用率。服务器获得按需内存容量和带宽,应用程序运行更快。
在 UnifabriX 的示例中,不仅节省了 100 万美元的资本支出,还实现了 150 万美元的总拥有成本收益。
好文章,需要你的鼓励
OpenAI 本周为 ChatGPT 添加了 AI 图像生成功能,用户可直接在对话中创建图像。由于使用量激增,CEO Sam Altman 表示公司的 GPU "正在融化",不得不临时限制使用频率。新功能支持工作相关图像创建,如信息图表等,但在图像编辑精确度等方面仍存在限制。值得注意的是,大量用户正在使用该功能创作吉卜力动画风格的图像。
Synopsys 近期推出了一系列基于 AMD 最新芯片的硬件辅助验证和虚拟原型设计工具,包括 HAPS-200 原型系统和 ZeBu-200 仿真系统,以及面向 Arm 硬件的 Virtualizer 原生执行套件。这些创新工具显著提升了芯片设计和软件开发的效率,有助于加快产品上市速度,满足当前 AI 时代下快速迭代的需求。
人工智能正在深刻改变企业客户关系管理 (CRM) 的方方面面。从销售自动化、营销内容生成到客服智能化,AI不仅提升了运营效率,还带来了全新的服务模式。特别是自主代理AI (Agentic AI) 的出现,有望在多渠道无缝接管客户服务职能,开创CRM发展新纪元。
数据孤岛长期困扰着组织,影响着人工智能的可靠性。它们导致信息分散、模型训练不完整、洞察力不一致。解决方案包括实施强大的数据治理、促进跨部门协作、采用现代数据集成技术等。克服数据孤岛对于充分发挥AI潜力至关重要。