UnifabriX 表示,其基于 CXL 连接的外部 MAX 内存设备可以显著提升 AI 处理性能。
在之前的一篇文章中介绍了该公司的 MAX 内存技术。UnifabriX CEO Ronen Hyatt 引用了 Amir Gholami 等人的"AI 和内存墙"研究论文来说明他的观点。研究人员指出:"空前的无监督训练数据以及神经网络扩展法则,导致模型规模和大语言模型的训练/服务计算需求激增。然而,主要性能瓶颈正逐渐转向内存带宽。在过去 20 年中,服务器硬件峰值 FLOPS 每两年增长 3.0 倍,远超过 DRAM 和互连带宽的增长速度,后两者每两年仅分别增长 1.6 倍和 1.4 倍。这种差异使得内存,而非计算能力,成为 AI 应用的主要瓶颈,特别是在服务部署方面。"
论文中的图表展示了这种影响: 内存墙即是内存带宽与硬件峰值 FLOPS 之间的差距。
论文作者总结道:"为了更好地理解这些数字,过去 20 年间,硬件峰值 FLOPS 增长了 60,000 倍,而 DRAM/互连带宽在同期仅分别增长了 100 倍/30 倍。在这种趋势下,内存——特别是芯片内部/芯片间的内存传输——将很快成为部署大型 AI 模型的主要限制因素。因此,我们需要重新思考 AI 模型的训练、部署和设计方式,以及如何设计 AI 硬件来应对这个日益严峻的内存墙挑战。"
Hyatt 修改了图表,加入了 PCIe 总线各代以及 CXL 和 NVLink 的扩展线,显示 IO 架构速度的增长同样未能跟上硬件峰值 FLOPS 的步伐。
即使使用 InfiniBand 连接 NAND 驱动器,GPU 服务器的内存和闪存存储之间仍存在性能差距。通过 CXL (未来还有 UALink) 连接外部内存,可以缓解这一性能差距。
Hyatt 表示,内存架构优于 InfiniBand 网络,能够提供更高的性能,而 CXL 和 UALink 是可与 Nvidia 专有 NVLink 相媲美的开放内存架构标准。
除了提升性能外,UnifabriX 的 MAX 内存还可以节省成本。
在 UnifabriX 的示例场景中,16 台服务器(包括 4 台 GPU 服务器)中,每台配置 6 TB DRAM,总容量为 96 TB。总内存成本为 160 万美元,而 UnifabriX 指出内存利用率不到 30%。
通过添加一个容量为 30 TB 的 MAX 内存单元,这 16 台服务器现在每台可以配置 2.25 TB 内存,总计 66 TB 内存,成本为 67 万美元,且具有更高的利用率。服务器获得按需内存容量和带宽,应用程序运行更快。
在 UnifabriX 的示例中,不仅节省了 100 万美元的资本支出,还实现了 150 万美元的总拥有成本收益。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。