Nvidia创建了一项服务器开放设计以支持其加速器,并认为,以CPU为中心的服务器设计无法容纳多个GPU和SmartNIC。
Nvidia公司首席执行官黄仁勋本周一举行的Computex 2023大会上公布了名为“MGX”的设计,并表示这是必要的,因为现有的服务器设计无法应对Nvidia加速器产生的热量和消耗的功率。
他认为,从1965年IBM System 360首次亮相之日开启的计算历史时代如今已经结束。在 他的讲述中,System 360曾赋予了CPU的全球主导地位以及扩展系统的能力。
他认为,自那以后这种架构一直主导着世界,但CPU性能的提升已经趋于稳定,加速器辅助计算才是未来。
当然,这一论点是Nvidia的核心宗旨。
但黄仁勋用有关生成大型语言模型(LLM)所需工作量这一数据来支持他的观点,他引用了一个例子,假设有960台服务器系统,该系统耗资1000万美元,它需要消耗11Gwh来训练一个大型语言模型。
他断言,只需一对成本为40万美元的、Nvidia驱动的服务器以及封装的GPU就可以完成同样的工作,而功耗仅为0.13 GWh。他还表示,价值3400万美元的、Nvidia驱动的172设备可以用来训练150个大型语言模型,消耗11GWh。
即将推出的、基于Nvidia MGX规范的服务器
黄仁勋的理论是,这种设备很快就会出现在很多企业组织的购物清单上,因为虽然数据中心的建设速度是惊人的,但大家对机架空间和电力的竞争依然很激烈,所以很多用户会想办法重新设计他们的数据中心以提高效率和密度。
这就是MGX规范的用武之地,MGX提供了一种设计,可以在更小的空间内使用更多的Nvidia产品,而不是将其硬塞进仅由CPU驱动的机器中。黄仁勋表示,MGX提供了用户所需的密度。如果需要,它可以愉快地容纳旧的x86 CPU,以及所有Nvidia的加速器。
华擎科技、华硕、技嘉、和硕、QCT和Supermicro都已签约生产这种服务器,黄仁勋表示,这些服务器可以部署为100多种配置中,具有1U、2U和4U等外形规格。
8月,QCT将交付名为S74G-2U的MGX设计,该设计将提供GH200 Grace Hopper Superchip。同月,Supermicro将推出ARS-221GL-NR,采用Grace CPU Superchip。
黄仁勋还宣布,Grace Hopper的生产正在如火如荼地进行中。他表示,Grace Hopper可以用于运行5G网络的家庭环境,以及用于一些生成式AI中,在视频聊天通过网络时对其进行训练,而不是让客户端设备完成所有压缩和解压缩视频的工作。
他还介绍了一款大型交换机Spectrum-X Networking Platform,以提高以太网在运行AI工作负载的大规模云中的效率。
他提到,Nvidia改进了对AI软件堆栈的支持,使其更适合企业使用。
黄仁勋也在考虑机器人技术,因为Nvidia已经开放了Isaac平台,该平台结合了软件和芯片,可以打造用于工业用途的自主机器人,特别是可以用于在仓库里四处搬运货物。
之所以能够做到这些,是因为Nvidia使用封装了全部Nvidia加速硬件的服务器上创建真实世界的数字孪生,从而打造出了这种机器人。
这再次说明了Nvidia为什么要构建MGX服务器规范。
好文章,需要你的鼓励
到 2025 年,人工智能将在生命科学行业带来重大变革。从智能搜索到无缝医疗服务,AI 将优化医疗专业人员和患者的体验。文章预测了 AI 在监管、安全、搜索、个性化服务等方面的具体应用,以及行业技术格局的变化。这些创新将为患者和医疗专业人员带来更高效、更有针对性的服务。
TenneT 携手诺基亚在北海部署光纤网络,连接海上风电场,助力可再生能源增产。该项目将采用先进光网络技术,支持远程监控和管理,确保可靠的能源传输。这一创新模式有望推动欧洲能源转型,为实现 2050 年气候中和目标做出重要贡献。
新加坡物流公司ST Logistics与联想合作,通过新的仓库执行系统和AI算法自动化关键流程。该系统优化货物移动,自动规划最快捷安全的运输路线,加快订单处理。联想的高性能计算系统和AI算法还将优化货物存储,提高即时发货物品的可访问性。这一合作旨在提升供应链效率,增强新加坡在区域竞争力。
研究机构 Coldago 针对不同文件存储应用场景,发布了三份独立的供应商评估报告。报告采用四象限图形式,将供应商分为企业级文件存储、高性能文件存储和云文件存储三类。这种分类方法与 GigaOm 的圆形四象限雷达图有所不同,体现了两家分析机构对文件存储市场的不同见解。