Panmnesia 通过在统一虚拟内存空间中添加快速 CXL 访问外部内存来扩充 GPU 内存的方案,赢得了 CES 创新奖。
Panmnesia 表示,大规模生成式 AI 训练任务可能会受到内存限制,因为 GPU 仅限于 GB 级别的高带宽内存 (HBM),而实际可能需要 TB 级别的内存。解决这个问题的常规方法是增加更多 GPU,这虽然能获得更多内存,但代价是产生冗余的 GPU。Panmnesia 使用了其 CXL (Computer eXpress Link) 技术,通过 PCIe 总线将外部内存添加到主机处理器,这一过程由 Panmnesia 的 CXL 3.1 控制器芯片调控。该控制器的往返时间少于 100 纳秒,比 SMT (同步多线程) 和 TPP (透明页面放置) 方法所需的 250 纳秒快 3 倍以上。
Panmnesia 发言人表示:"我们的 GPU 内存扩展套件...因其能够有效降低 AI 基础设施成本,已经引起了 AI 数据中心领域公司的广泛关注。"
该技术于去年夏天公布,并在 10 月的 OCP 全球峰会上展示。公司提供了一份可下载的 CXL-GPU 技术简报,其中提到其 CXL 控制器具有两位数纳秒的延迟,据了解约为 80 纳秒。文档中的高层次图表展示了该设置可以连接 DRAM 或 NVMe SSD 端点 (EPs) 到 GPU。
更详细地说,第二张 Panmnesia 图表显示 GPU 通过 PCIe 总线连接到 CXL Root Complex 或主机桥接设备,该设备将 GPU 的高带宽内存(主机管理的设备内存)与 CXL 端点设备内存统一到一个统一虚拟内存空间 (UVM) 中。
这个主机桥接设备"一端连接系统总线端口,另一端连接多个 CXL 根端口。该设置的关键组件之一是 HDM 解码器,负责管理每个根端口的系统内存(称为主机物理地址,HPA)的地址范围。这些根端口设计灵活,能够通过 PCIe 连接支持 DRAM 或 SSD EPs。" GPU 可以通过加载-存储指令访问这个统一的可缓存空间中的所有内存。
Panmnesia 在 YouTube 上发布了一个视频,以简化形式展示了其 CXL 访问 GPU 内存方案。
好文章,需要你的鼓励
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
这项由香港中文大学和AWS团队联合开发的研究推出了TALK2MOVE系统,实现了用自然语言精准操作图片中物体的位置、角度和大小。该系统采用强化学习训练方式,通过空间感知奖励机制和智能步骤采样技术,在移动、旋转、缩放三类操作上的准确率显著超越现有方法,同时大幅降低了对昂贵训练数据的依赖,为AI图像编辑领域带来重要突破。
研究人员对Claude、GPT-4、Gemini和Grok等商用AI模型进行测试,发现这些模型能够记忆并完整输出受版权保护的内容。其中越狱后的Claude 3.7 Sonnet能输出95.8%的《哈利波特与魔法石》内容,而Gemini和Grok在无需越狱情况下也能输出超过70%的内容。这一发现可能对正在进行的AI版权诉讼产生重要影响,目前多家AI公司面临超过60项相关法律诉讼。
斯坦福大学等知名机构联合研究发现,企业AI助手在执行组织政策时存在严重"偏科"问题:处理允许请求时成功率超95%,但拒绝违规请求时仅13-40%。研究团队开发的COMPASS评估框架通过8个行业5920个测试问题,揭示了AI助手普遍缺乏"拒绝技能"的问题,并提出了针对性训练解决方案。