Nvidia创建了一项服务器开放设计以支持其加速器,并认为,以CPU为中心的服务器设计无法容纳多个GPU和SmartNIC。
Nvidia公司首席执行官黄仁勋本周一举行的Computex 2023大会上公布了名为“MGX”的设计,并表示这是必要的,因为现有的服务器设计无法应对Nvidia加速器产生的热量和消耗的功率。
他认为,从1965年IBM System 360首次亮相之日开启的计算历史时代如今已经结束。在 他的讲述中,System 360曾赋予了CPU的全球主导地位以及扩展系统的能力。
他认为,自那以后这种架构一直主导着世界,但CPU性能的提升已经趋于稳定,加速器辅助计算才是未来。
当然,这一论点是Nvidia的核心宗旨。
但黄仁勋用有关生成大型语言模型(LLM)所需工作量这一数据来支持他的观点,他引用了一个例子,假设有960台服务器系统,该系统耗资1000万美元,它需要消耗11Gwh来训练一个大型语言模型。
他断言,只需一对成本为40万美元的、Nvidia驱动的服务器以及封装的GPU就可以完成同样的工作,而功耗仅为0.13 GWh。他还表示,价值3400万美元的、Nvidia驱动的172设备可以用来训练150个大型语言模型,消耗11GWh。

即将推出的、基于Nvidia MGX规范的服务器
黄仁勋的理论是,这种设备很快就会出现在很多企业组织的购物清单上,因为虽然数据中心的建设速度是惊人的,但大家对机架空间和电力的竞争依然很激烈,所以很多用户会想办法重新设计他们的数据中心以提高效率和密度。
这就是MGX规范的用武之地,MGX提供了一种设计,可以在更小的空间内使用更多的Nvidia产品,而不是将其硬塞进仅由CPU驱动的机器中。黄仁勋表示,MGX提供了用户所需的密度。如果需要,它可以愉快地容纳旧的x86 CPU,以及所有Nvidia的加速器。
华擎科技、华硕、技嘉、和硕、QCT和Supermicro都已签约生产这种服务器,黄仁勋表示,这些服务器可以部署为100多种配置中,具有1U、2U和4U等外形规格。
8月,QCT将交付名为S74G-2U的MGX设计,该设计将提供GH200 Grace Hopper Superchip。同月,Supermicro将推出ARS-221GL-NR,采用Grace CPU Superchip。
黄仁勋还宣布,Grace Hopper的生产正在如火如荼地进行中。他表示,Grace Hopper可以用于运行5G网络的家庭环境,以及用于一些生成式AI中,在视频聊天通过网络时对其进行训练,而不是让客户端设备完成所有压缩和解压缩视频的工作。
他还介绍了一款大型交换机Spectrum-X Networking Platform,以提高以太网在运行AI工作负载的大规模云中的效率。
他提到,Nvidia改进了对AI软件堆栈的支持,使其更适合企业使用。
黄仁勋也在考虑机器人技术,因为Nvidia已经开放了Isaac平台,该平台结合了软件和芯片,可以打造用于工业用途的自主机器人,特别是可以用于在仓库里四处搬运货物。
之所以能够做到这些,是因为Nvidia使用封装了全部Nvidia加速硬件的服务器上创建真实世界的数字孪生,从而打造出了这种机器人。
这再次说明了Nvidia为什么要构建MGX服务器规范。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。