近日,MLCommons公布了针对AI模型训练的行业标准MLPerf训练v3.1基准测试结果。
作为唯一提交MLPerf测试结果的CPU,第四代英特尔至强可扩展处理器在测试中展现出强大的性能。

本次,英特尔提交了ResNet50、RetinaNet、BERT和DLRM dcnv2的测试结果。值得注意的是,在DLRM dcnv2这一个新提交的测试模型中,第四代英特尔至强可扩展处理器仅使用四个节点就在227分钟内完成了训练。
在分别于今年6月、9月和11月进行的三次测试中,英特尔提交了基于第四代英特尔至强可扩展处理器的多个推理基准测试,结果显示,包括视觉、语言处理、语音和音频翻译模型,以及更大的DLRM v2深度学习推荐模型及60亿参数大语言模型及计算机视觉与自然语言处理模型ChatGPT-J在内,第四代英特尔至强处理器对于通用AI工作负载拥有出色的性能。
持续进化的CPU
毋庸讳言,GPU在AI工作负载的优势十分明显,但是这并不代表CPU就此甘拜下风。
为了让CPU更好地运行AI应用,英特尔对于至强处理器进行了积极改进。
比如内置英特尔高级矩阵扩展(英特尔AMX)加速引擎,第四代英特尔至强可扩展处理器支持INT8和BF16两种数据类型。与前几代产品相比,本代产品可实现高达5.7至10倍的实时推理性能提升和高达3.5至10倍的训练性能提升。
在于百度智能云9月发布的新一代云服务器BCC实例中,第四代至强可扩展处理器以AMX加速器扩展AI算力,从而使百度智能云用户在任何实例上轻松获取原生的强大AI能力。
得益于英特尔AMX指令集针对矩阵运算的强大加速能力,腾讯BERT模型BF16吞吐量获得大幅提升,从而有效地优化了其AI用户的终端体验。
通过AMX INT8及BF16的不同精度数据处理、AVX-512的深入调优,以及英特尔软件的加持,阿里云地址标准化业务和淘宝搜索的定制化推荐业务实现了大幅性能提升。
与此同时,第四代英特尔至强可扩展处理器亦助力亚信、用友、金蝶和东软等独立软件服务商实现在OCR等领域的多项业务升级,助力其成功应对来自不同应用场景的多样化AI工作负载需求。
截止目前,第四代至强可扩展处理器已出货一百万片。而代号为Emerald Rapids的第五代英特尔至强可扩展处理器也将于今年第四季度发布。
作为英特尔至强的重要演进,下一代平台引入了全新的能效核(E-core)架构,与其已有的性能核(P-core)架构并存。分别以代号Sierra Forest和Granite Rapids命名的这些新产品将为客户提供便捷性和灵活性,以及兼容的硬件架构和共享的软件堆栈,以满足诸如人工智能等关键工作负载的多元化需求。
代号为Sierra Forest的能效核英特尔至强可扩展处理器,计划将于2024年上半年交付,而代号为Granite Rapids的性能核英特尔至强可扩展处理器也将紧随其后。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。