Panmnesia 通过在统一虚拟内存空间中添加快速 CXL 访问外部内存来扩充 GPU 内存的方案,赢得了 CES 创新奖。
Panmnesia 表示,大规模生成式 AI 训练任务可能会受到内存限制,因为 GPU 仅限于 GB 级别的高带宽内存 (HBM),而实际可能需要 TB 级别的内存。解决这个问题的常规方法是增加更多 GPU,这虽然能获得更多内存,但代价是产生冗余的 GPU。Panmnesia 使用了其 CXL (Computer eXpress Link) 技术,通过 PCIe 总线将外部内存添加到主机处理器,这一过程由 Panmnesia 的 CXL 3.1 控制器芯片调控。该控制器的往返时间少于 100 纳秒,比 SMT (同步多线程) 和 TPP (透明页面放置) 方法所需的 250 纳秒快 3 倍以上。
Panmnesia 发言人表示:"我们的 GPU 内存扩展套件...因其能够有效降低 AI 基础设施成本,已经引起了 AI 数据中心领域公司的广泛关注。"
该技术于去年夏天公布,并在 10 月的 OCP 全球峰会上展示。公司提供了一份可下载的 CXL-GPU 技术简报,其中提到其 CXL 控制器具有两位数纳秒的延迟,据了解约为 80 纳秒。文档中的高层次图表展示了该设置可以连接 DRAM 或 NVMe SSD 端点 (EPs) 到 GPU。
更详细地说,第二张 Panmnesia 图表显示 GPU 通过 PCIe 总线连接到 CXL Root Complex 或主机桥接设备,该设备将 GPU 的高带宽内存(主机管理的设备内存)与 CXL 端点设备内存统一到一个统一虚拟内存空间 (UVM) 中。
这个主机桥接设备"一端连接系统总线端口,另一端连接多个 CXL 根端口。该设置的关键组件之一是 HDM 解码器,负责管理每个根端口的系统内存(称为主机物理地址,HPA)的地址范围。这些根端口设计灵活,能够通过 PCIe 连接支持 DRAM 或 SSD EPs。" GPU 可以通过加载-存储指令访问这个统一的可缓存空间中的所有内存。
Panmnesia 在 YouTube 上发布了一个视频,以简化形式展示了其 CXL 访问 GPU 内存方案。
好文章,需要你的鼓励
Genspark推出超级智能体,将"氛围编程"概念扩展至企业工作流程,实现"氛围工作"模式。该系统采用9个大语言模型的专家混合架构,配备80多种工具和10多个数据集,通过规划-执行-观察-回溯循环运行。系统能自主处理复杂业务任务,甚至代替用户拨打电话。45天内实现3600万美元年收入,展现了自主智能体平台的商业可行性,挑战传统企业AI架构理念。
北京大学和百度VIS联合研发的MV-AR技术,首次让AI学会像人类一样逐步观察物体,通过自回归方式生成多视角一致图像。该技术解决了传统方法在处理大视角差异时的一致性问题,支持文字、图像、形状等多种输入,在3D内容创作、机器人视觉等领域具有广阔应用前景。
医疗保健已成为AI应用的热点领域,在疾病诊断、康复监测和新药开发方面证明了其价值。然而,行业仍面临临床人员短缺、人口老龄化等挑战。AI智能体作为下一波AI变革浪潮,相比现有AI工具,能够执行更复杂的任务并减少人工干预。它们不仅能被动提供信息,还能主动采取行动,如自动分诊调度、辅助临床决策、远程患者监护等,有望在十年内彻底改变医疗服务的提供、管理和体验方式。
Microsoft和Georgia Tech研究团队开发了SlimMoE技术,能将超大AI模型压缩到原来的10-20%大小而性能基本不变。该技术采用多阶段渐进式压缩,保留所有专家模块但精简内部结构,成功将419亿参数的模型压缩为76亿和38亿参数版本,让原本需要企业级硬件的AI能力可在普通电脑上运行,大大降低了AI技术使用门槛。