Panmnesia 通过在统一虚拟内存空间中添加快速 CXL 访问外部内存来扩充 GPU 内存的方案,赢得了 CES 创新奖。
Panmnesia 表示,大规模生成式 AI 训练任务可能会受到内存限制,因为 GPU 仅限于 GB 级别的高带宽内存 (HBM),而实际可能需要 TB 级别的内存。解决这个问题的常规方法是增加更多 GPU,这虽然能获得更多内存,但代价是产生冗余的 GPU。Panmnesia 使用了其 CXL (Computer eXpress Link) 技术,通过 PCIe 总线将外部内存添加到主机处理器,这一过程由 Panmnesia 的 CXL 3.1 控制器芯片调控。该控制器的往返时间少于 100 纳秒,比 SMT (同步多线程) 和 TPP (透明页面放置) 方法所需的 250 纳秒快 3 倍以上。
Panmnesia 发言人表示:"我们的 GPU 内存扩展套件...因其能够有效降低 AI 基础设施成本,已经引起了 AI 数据中心领域公司的广泛关注。"
该技术于去年夏天公布,并在 10 月的 OCP 全球峰会上展示。公司提供了一份可下载的 CXL-GPU 技术简报,其中提到其 CXL 控制器具有两位数纳秒的延迟,据了解约为 80 纳秒。文档中的高层次图表展示了该设置可以连接 DRAM 或 NVMe SSD 端点 (EPs) 到 GPU。
更详细地说,第二张 Panmnesia 图表显示 GPU 通过 PCIe 总线连接到 CXL Root Complex 或主机桥接设备,该设备将 GPU 的高带宽内存(主机管理的设备内存)与 CXL 端点设备内存统一到一个统一虚拟内存空间 (UVM) 中。
这个主机桥接设备"一端连接系统总线端口,另一端连接多个 CXL 根端口。该设置的关键组件之一是 HDM 解码器,负责管理每个根端口的系统内存(称为主机物理地址,HPA)的地址范围。这些根端口设计灵活,能够通过 PCIe 连接支持 DRAM 或 SSD EPs。" GPU 可以通过加载-存储指令访问这个统一的可缓存空间中的所有内存。
Panmnesia 在 YouTube 上发布了一个视频,以简化形式展示了其 CXL 访问 GPU 内存方案。
好文章,需要你的鼓励
甲骨文公司披露获得一份年价值超过300亿美元的云服务合同,消息传出后股价一度上涨近9%。该合同是甲骨文自4月1日2026财年开始以来赢得的多个大型云服务协议之一,预计从2028财年开始贡献超过300亿美元的年收入。虽然买方身份未公开,但最可能的候选者是OpenAI,两家公司正在合作建设AI数据中心网络项目Stargate。
国立台湾大学等机构开发的MuseControlLite技术实现了音乐AI的重大突破。该系统仅用8500万参数就达到61.1%的旋律控制精度,比现有方法减少6.75倍参数量却性能更优。通过创新的位置编码和解耦交叉注意力机制,系统能同时处理文字、音乐属性和音频信号的多重控制,支持音乐生成、修复和风格迁移等功能,为音乐创作民主化开辟新道路。
AI编程编辑器Cursor背后的公司Anysphere推出网页应用,用户可通过浏览器管理AI编程代理网络。该应用支持桌面和移动端,用户可用自然语言分配编程任务、监控代理工作进度并合并代码更改。Cursor年经常性收入已超5亿美元,被超半数财富500强企业使用。新应用面向Pro计划及更高级别订阅用户开放,旨在降低使用门槛。公司预计到2026年AI编程代理将承担软件工程师至少20%的工作。
马里兰大学研究团队在70亿参数的OLMoE模型中首次发现了真实大型语言模型的"Grokking"现象,即AI在训练误差稳定后仍能实现智能突破。他们开发了基于混合专家模型思维路径分析的新方法,能够在无需外部测试的情况下准确预测AI的泛化能力,为AI开发和评估提供了革命性的实时监控工具。