Panmnesia 通过在统一虚拟内存空间中添加快速 CXL 访问外部内存来扩充 GPU 内存的方案,赢得了 CES 创新奖。
Panmnesia 表示,大规模生成式 AI 训练任务可能会受到内存限制,因为 GPU 仅限于 GB 级别的高带宽内存 (HBM),而实际可能需要 TB 级别的内存。解决这个问题的常规方法是增加更多 GPU,这虽然能获得更多内存,但代价是产生冗余的 GPU。Panmnesia 使用了其 CXL (Computer eXpress Link) 技术,通过 PCIe 总线将外部内存添加到主机处理器,这一过程由 Panmnesia 的 CXL 3.1 控制器芯片调控。该控制器的往返时间少于 100 纳秒,比 SMT (同步多线程) 和 TPP (透明页面放置) 方法所需的 250 纳秒快 3 倍以上。
Panmnesia 发言人表示:"我们的 GPU 内存扩展套件...因其能够有效降低 AI 基础设施成本,已经引起了 AI 数据中心领域公司的广泛关注。"
该技术于去年夏天公布,并在 10 月的 OCP 全球峰会上展示。公司提供了一份可下载的 CXL-GPU 技术简报,其中提到其 CXL 控制器具有两位数纳秒的延迟,据了解约为 80 纳秒。文档中的高层次图表展示了该设置可以连接 DRAM 或 NVMe SSD 端点 (EPs) 到 GPU。
更详细地说,第二张 Panmnesia 图表显示 GPU 通过 PCIe 总线连接到 CXL Root Complex 或主机桥接设备,该设备将 GPU 的高带宽内存(主机管理的设备内存)与 CXL 端点设备内存统一到一个统一虚拟内存空间 (UVM) 中。
这个主机桥接设备"一端连接系统总线端口,另一端连接多个 CXL 根端口。该设置的关键组件之一是 HDM 解码器,负责管理每个根端口的系统内存(称为主机物理地址,HPA)的地址范围。这些根端口设计灵活,能够通过 PCIe 连接支持 DRAM 或 SSD EPs。" GPU 可以通过加载-存储指令访问这个统一的可缓存空间中的所有内存。
Panmnesia 在 YouTube 上发布了一个视频,以简化形式展示了其 CXL 访问 GPU 内存方案。
好文章,需要你的鼓励
通用汽车与英伟达扩大合作,旨在将人工智能应用于汽车制造的各个方面。这项合作涵盖工厂自动化、机器人技术和自动驾驶汽车开发。英伟达将为通用汽车提供 AI 基础设施和技术支持,助力其打造下一代智能工厂、优化生产流程,并推进自动驾驶技术的发展。这一战略合作反映了汽车行业向智能化、数字化转型的趋势。
企业AI不仅要考虑推理成本和性能,还需确保模型满足严格的安全、隐私和合规要求。建立可信赖的AI系统是关键,这意味着企业除了优化成本和性能外,还需优先考虑模型的完整性和安全性。在选择基础模型时,应采用全面的评估方法,包括安全性、偏见、合规性等多个方面,而不仅仅是关注单一指标。
英伟达推出革命性的共封装光学网络解决方案,大幅提升AI数据中心性能。新技术可将光学收发器数量减少4倍,能效提高3.5倍,信号完整性提升63倍,网络弹性增加10倍,部署时间缩短1.3倍。这一突破性进展将助力数据中心满足代理型AI对计算资源的巨大需求,标志着共封装光学技术实现量产的重要里程碑。
英伟达宣布与迪士尼研究院和谷歌 DeepMind 合作开发 Newton 物理引擎,用于模拟真实环境中的机器人动作。迪士尼将率先使用 Newton 驱动其下一代娱乐机器人,如星球大战风格的 BDX 机器人。英伟达计划于 2025 年晚些时候发布 Newton 的早期开源版本。这项合作将为迪士尼主题公园带来更具表现力和精确性的机器人体验。