说到大模型,算力稀缺是不可回避的问题。当大家都在抢购英伟达的GPU的时候,在缺货的等待期,我们不妨尝试其他产品。
就在今天MLCommons刚刚公布的MLPerf推理v3.1性能基准测试结果显示,英特尔Habana Gaudi2加速器、第四代英特尔至强可扩展处理器,以及英特尔至强CPU Max在AI推理方面表现出色。
我们看下具体的成绩:
用于测试的是60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J。Habana Gaudi2在GPT-J模型上的推理结果强有力地验证了其具有竞争力的性能。
英特尔提交了基于第四代英特尔至强可扩展处理器的7个推理基准测试,其中包括GPT-J模型。对于GPT-J对约1000-1500字新闻稿进行100字总结的任务,第四代至强可扩展处理器可在离线模式下完成每秒两段的总结提要,在实时服务器模式下完成每秒一段的总结提要。
英特尔首次提交了英特尔至强CPU Max系列的MLPerf 结果,该系列可提供高达64GB的高带宽内存。对于GPT-J而言,它是仅有的能够达到99.9%准确度的CPU,这对于对精度要求极高的应用来说至关重要。
除了这次AI推理的测试结构,根据6月披露的MLCommons AI训练结果和Hugging Face性能基准测试验证,Gaudi2在先进的视觉语言模型上,性能可以超越英伟达的H100处理器。
所以,从测试成绩看,Gaudi2与至强可扩展处理器完全可以用于深度学习推理及训练,加速人工智能模型。
其实Gaudi2与至强可扩展处理器之所以能够取得如此的成绩,主要是还是产品针对人工智能工作负载进行优化。比如Gaudi2集成了24个可编程Tensor处理器核心(TPCs),配置21个Gbps以太网接口,内存和缓存提高到96GB HBM2e和48MB SRAM,内存带宽升为2.4TB/s等。
在测试GPT-3时,Gaudi 2表现出了强劲性能,在384个加速器上训练时间达311分钟,从256个加速器到384个加速器实现了近线性95%的扩展。这使得Gaudi 2是除了英伟达产品外,唯一能把MLPerf GPT 3.0模型跑起来的芯片。

Gaudi 2作为一款专用AI加速芯片,相比英伟达的通用GPU A100和H100,其服务器成本更低,价格优势也更为明显。

第四代英特尔至强可扩展处理器最重要的特性之一,是新的AMX人工智能加速引擎,与上一代相比,它可以提供高达10倍的人工智能推理和训练性能提升,支持大多数大型AI模型,包括实时、中等吞吐量、低延迟稀疏推理,以及中、小型规模的训练和边缘推理。
MLPerf是业内享有盛名的AI性能基准测试,旨在实现公平、可重复的产品性能比较。这有助于企业基于测试成绩进行采购指南。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。