Panmnesia 通过在统一虚拟内存空间中添加快速 CXL 访问外部内存来扩充 GPU 内存的方案,赢得了 CES 创新奖。
Panmnesia 表示,大规模生成式 AI 训练任务可能会受到内存限制,因为 GPU 仅限于 GB 级别的高带宽内存 (HBM),而实际可能需要 TB 级别的内存。解决这个问题的常规方法是增加更多 GPU,这虽然能获得更多内存,但代价是产生冗余的 GPU。Panmnesia 使用了其 CXL (Computer eXpress Link) 技术,通过 PCIe 总线将外部内存添加到主机处理器,这一过程由 Panmnesia 的 CXL 3.1 控制器芯片调控。该控制器的往返时间少于 100 纳秒,比 SMT (同步多线程) 和 TPP (透明页面放置) 方法所需的 250 纳秒快 3 倍以上。
Panmnesia 发言人表示:"我们的 GPU 内存扩展套件...因其能够有效降低 AI 基础设施成本,已经引起了 AI 数据中心领域公司的广泛关注。"
该技术于去年夏天公布,并在 10 月的 OCP 全球峰会上展示。公司提供了一份可下载的 CXL-GPU 技术简报,其中提到其 CXL 控制器具有两位数纳秒的延迟,据了解约为 80 纳秒。文档中的高层次图表展示了该设置可以连接 DRAM 或 NVMe SSD 端点 (EPs) 到 GPU。
更详细地说,第二张 Panmnesia 图表显示 GPU 通过 PCIe 总线连接到 CXL Root Complex 或主机桥接设备,该设备将 GPU 的高带宽内存(主机管理的设备内存)与 CXL 端点设备内存统一到一个统一虚拟内存空间 (UVM) 中。
这个主机桥接设备"一端连接系统总线端口,另一端连接多个 CXL 根端口。该设置的关键组件之一是 HDM 解码器,负责管理每个根端口的系统内存(称为主机物理地址,HPA)的地址范围。这些根端口设计灵活,能够通过 PCIe 连接支持 DRAM 或 SSD EPs。" GPU 可以通过加载-存储指令访问这个统一的可缓存空间中的所有内存。
Panmnesia 在 YouTube 上发布了一个视频,以简化形式展示了其 CXL 访问 GPU 内存方案。
好文章,需要你的鼓励
这项由浙江大学与阿里巴巴通义实验室联合开展的研究,通过创新的半在线强化学习方法,显著提升了AI界面助手在多步骤任务中的表现。UI-S1-7B模型在多个基准测试中创造了7B参数规模的新纪录,为GUI自动化代理的发展开辟了新的技术路径。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。