说到大模型,算力稀缺是不可回避的问题。当大家都在抢购英伟达的GPU的时候,在缺货的等待期,我们不妨尝试其他产品。
就在今天MLCommons刚刚公布的MLPerf推理v3.1性能基准测试结果显示,英特尔Habana Gaudi2加速器、第四代英特尔至强可扩展处理器,以及英特尔至强CPU Max在AI推理方面表现出色。
我们看下具体的成绩:
用于测试的是60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J。Habana Gaudi2在GPT-J模型上的推理结果强有力地验证了其具有竞争力的性能。
英特尔提交了基于第四代英特尔至强可扩展处理器的7个推理基准测试,其中包括GPT-J模型。对于GPT-J对约1000-1500字新闻稿进行100字总结的任务,第四代至强可扩展处理器可在离线模式下完成每秒两段的总结提要,在实时服务器模式下完成每秒一段的总结提要。
英特尔首次提交了英特尔至强CPU Max系列的MLPerf 结果,该系列可提供高达64GB的高带宽内存。对于GPT-J而言,它是仅有的能够达到99.9%准确度的CPU,这对于对精度要求极高的应用来说至关重要。
除了这次AI推理的测试结构,根据6月披露的MLCommons AI训练结果和Hugging Face性能基准测试验证,Gaudi2在先进的视觉语言模型上,性能可以超越英伟达的H100处理器。
所以,从测试成绩看,Gaudi2与至强可扩展处理器完全可以用于深度学习推理及训练,加速人工智能模型。
其实Gaudi2与至强可扩展处理器之所以能够取得如此的成绩,主要是还是产品针对人工智能工作负载进行优化。比如Gaudi2集成了24个可编程Tensor处理器核心(TPCs),配置21个Gbps以太网接口,内存和缓存提高到96GB HBM2e和48MB SRAM,内存带宽升为2.4TB/s等。
在测试GPT-3时,Gaudi 2表现出了强劲性能,在384个加速器上训练时间达311分钟,从256个加速器到384个加速器实现了近线性95%的扩展。这使得Gaudi 2是除了英伟达产品外,唯一能把MLPerf GPT 3.0模型跑起来的芯片。
Gaudi 2作为一款专用AI加速芯片,相比英伟达的通用GPU A100和H100,其服务器成本更低,价格优势也更为明显。
第四代英特尔至强可扩展处理器最重要的特性之一,是新的AMX人工智能加速引擎,与上一代相比,它可以提供高达10倍的人工智能推理和训练性能提升,支持大多数大型AI模型,包括实时、中等吞吐量、低延迟稀疏推理,以及中、小型规模的训练和边缘推理。
MLPerf是业内享有盛名的AI性能基准测试,旨在实现公平、可重复的产品性能比较。这有助于企业基于测试成绩进行采购指南。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。