至顶网服务器频道 04月08日 新闻消息: 日前,在 GTC 2018 上,Vicor 团队见证了 英伟达 DGX-2 的发布,它是迄今为止最强大的 AI 系统。DGX-2 使用 16 个 SXM3 GPU 卡提供每秒 2 千万亿次浮点运算的计算性能,与前一代 DGX-1 相比,可提供 10 倍的深度学习性能,而功耗仅为 10kW。在展厅内,DGX-2 与 SXM3 卡一同展出,您可以在上面看到最新的Vicor 合封电源 (PoP) 解决方案以及我们的 PI3526 ZVS 降压稳压器。就在不久前的3 月 6 日,我们推出了 600A 稳定电流输出的 PoP 解决方案,其可将 48V 直接转换为 XPU 内核电压。
NVIDIA DGX-2:业界最强大的 AI 系统
合封电源解决方案消除最后一英寸供电问题
合封电源基于 Vicor 分比式电源架构 (FPA),已部署在各种高性能计算系统中,是 2017 OPC(开放式计算项目)美国峰会上的一大亮点。FPA 支持从 48V 直接转换为处理器电压的应用,所带来的效率和电流供给性能类似于常规 12V 设计,但功率密度是其 2 倍。基于 FPA 架构的功率转换和 Vicor SM-ChiP 3D 封装有助于PoP 器件实现更高功率密度。
高密度电源转换解决方案集成在两个模块中:模块化电流倍增器 (MCM) 和模块化电流倍增器驱动器 (MCD)。小型 MCM 有助于在封装上或在最接近处理器裸片的位置提供大电流,进一步消除了通过主板和插座传输大电流所产生的损耗。MCM 可消除困扰常规 12V 设计的"最后一英寸"处理器供电问题,因此,不仅可降低配电损耗,而且还可提高整体电源效率。
合封电源不仅可消除"最后一英寸"问题,为处理器高效供电,而且还可通过支持 48V 输入实现为整个机架的处理器高效供电。传统的12V供电架构,无法在不增加功耗和成本的情况下,为服务器机架上的多个大电流处理器提供强大的功率支持。与 12V 配电相比,采用 48V 配电,服务器机架可获得的优势包括减少铜箔、缩小连接器尺寸以及提高供电效率等。48V 配电有助于数据中心机架突破 12V 机架带来的功率限制(每个机架通常为 15kW 左右),从而可提高机架利用率。除了为数据中心带了巨大的便利外,合封电源的 48V 输入还非常适合为高性能防撞汽车及自动驾驶汽车内使用的处理器供电。
让 48V GPU 系统在原有 12V 系统中工作
在 GTC 上,我们还推出了最新的 NBM 产品,这是一款 12V 至 48V 非隔离的升压转换器,可为仍然依靠原有 12V 配电的数据中心的 48V 高性能 GPU 提供支持。NBM 采用 23 x 17 x 7.4 毫米表面贴装 SM-ChiP 封装,可将 12V 电压转换为 48V,提供超过 98% 的峰值效率、750W 的稳定功率和 1kW 的峰值功率。NBM 是一款完整的解决方案,既不需要外部输入滤波器,也不需要大容量电容器,而且还整合了热插拔及涌流限制技术。
NBM 采用 ZVS 和 ZCS 拓扑在 2MHz 下开关,可为动态负载提供低输出阻抗和 MHz 级的快速瞬态响应。刚过去的GTC 2018,对所有人来说都是一场视觉盛宴,我们为我们的产品能成为 DGX-2 的一部分而感到振奋,Vicor将持续不断地为AI 应用注入创新动力。
好文章,需要你的鼓励
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。
这项研究揭示了大型语言模型(LLMs)偏好决策的内在机制。以色列理工学院和IBM研究院的团队开发了一种自动化方法,不需人工预设即可发现和解释影响AI判断的关键概念。研究横跨八个领域(从一般问答到安全评估),分析了12种偏好机制,发现人类评判者重视权威性和清晰度,而AI评判更关注事实准确性。他们提出的层次多领域回归模型不仅能准确预测偏好,还能清晰解释判断过程,为构建更透明、更符合人类价值观的AI系统提供了新途径。