Nvidia今天宣布更新Nvidia Hopper加速计算系统阵容,采用Nvidia自己的H100 Tensor Core GPU以及英特尔今天推出的第四代英特尔至强可扩展处理器。
此外,Nvidia的数十家合作伙伴已经宣布推出了他们自己基于这一新硬件组合的服务器系统,Nvidia表示。这些系统的效率要比上一代高出25倍。

Nvidia解释说,英特尔此次推出的新CPU将与Nvidia的GPU结合在新一代Nvidia DGX H100系统中。英特尔第四代Intel Xeon可扩展处理器、Intel Xeon CPU Max系列和英特尔Data Center GPU Max系列于今天发布。英特尔表示,这些处理器在数据中心性能和效率方面实现了重大飞跃,为云、网络和边缘人工智能、以及全球最强大的超级计算机提供了增强的安全性和新功能。
这些CPU提供了工作负载优先的加速和针对特定工作负载调整的高度优化的软件,使用户能够以合适的功率实现合适的性能,以优化总拥有成本。此外,第四代至强处理器可以为客户提供一系列用于管理电源和性能的功能,从而优化利用CPU资源,帮助实现他们的可持续发展目标。
英特尔第四代至强可扩展处理器的一项关键新功能是支持PCIe Gen 5,能够将CPU到GPU的数据传输速率提高一倍,增加的PCIe通道可实现更高密度的GPU和每台服务器内的高速网络。此外,英特尔还提高了人工智能等数据密集型工作负载的性能,同时将网络速度提高到每个连接每秒400 Gb,这意味着服务器和存储阵列之间的数据传输速度会更快。
Nvidia表示,在新的DGX系统中,英特尔的CPU将与8个Nvidia H100 GPU结合使用。Nvidia H100 GPU是Nvidia迄今为止最强大的芯片,包含了800多亿个晶体管,是英特尔新芯片的理想搭档。这些GPU有一系列独特的功能,使其成为高性能计算工作负载的理想选择,包括内置的Transformer Engine和高度可扩展的NVLink互连,使其能够为大型人工智能模型、推荐系统等提供支持。
Constellation Research分析师Holger Mueller表示:“现代人工智能工作负载需要混合使用CPU和GPU计算平台。而且人工智能还取决于处理数据的速度,因此新的DGX设备使用PCIe Gen5是有道理的。现在一切都要看第一批客户和他们的用途。”
Moor Insights & Strategy分析师Patrick Moorhead表示,他对Nvidia最新的DGX系统印象深刻,但他指出,这并不是第一款支持PCIe 5的系统,AMD最新的处理器也具有该功能。他补充说:“我不认为PCIe 5是决定性因素,我认为这可能要归结为降低价格,因为我听说英特尔最近正在提供大幅折扣。”
将有60多款新服务器采用Nvidia DGX H100系统,这些结合了Nvidia GPU和英特尔CPU的服务器来自华硕、源讯、思科、戴尔、富士通、技嘉、HPE、联想、广达和超微。
Nvidia和众多厂商即将推出的这些系统,将利用最新的GPU和CPU硬件来运行工作负载,其效率是传统的纯CPU服务器的25倍。Nvidia声称,这些系统提供了“令人难以置信的每瓦性能”,从而大大降低了功耗。此外,与上一代Nvidia DGX系统相比,最新的硬件将AI训练和推理工作负载的效率提高了3.5倍,从而使拥有成本降低了约3倍。
支持Nvidia新系统的软件也派上了用场。新的DGX H100系统都附带了Nvidia Enterprise AI的免费许可,这是一套人工智能开发工具和部署软件的云原生套件,为用户提供了一个完整的人工智能计划平台。
Nvidia表示,客户可以以Nvidia DGX SuperPod平台的形式购买多个DGX H100系统,该平台本质上是一个小型超级计算平台,可提供高达exaflop级的AI性能。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。