基于真实环境的AI测试不断演进,促使英特尔技术专家顺应行业需求,持续提升产品性能,进而营造更友好的发展环境,推动AI技术的普及。
MLPerf大家可能都略有耳闻,但又未必完全了解这项AI基准测试。虽然没能找到这个词本身的明确定义,但利用AI助手,我们得到了一个值得信赖的答案:MLPerf在2018年5月首次出现时被比作是为“SPEC for ML”。AI助手继续写道:“‘MLPerf’是一个合成词,由‘ML’(代表机器学习)和‘Perf’(代表性能)组合而成。”
它进一步解释说:“虽然没有关于命名过程的详细官方说明,但名称本身就非常直观,之所以被选中,可能是因为它直接体现了基准测试的目的。”(这个解释也很贴合大家对AI生成的答案的预期,这些AI由研究人员所构建并不断改进)
实际结果证明了这一点:就在上周,英特尔是唯一一家持续向MLPerf提交服务器CPU测试结果的厂商。提交的结果中包括了使用英特尔® 至强® 6处理器进行图像检测和信息分析等常见的AI任务。
加速AI发展背后的组织与流程
英特尔数据中心和人工智能事业部软件部门的Ramesh Chukka表示:“MLPerf是目前AI领域首屈一指的基准测试。”
Chukka代表英特尔担任MLCommons委员会成员,该联盟成立于2020年底,目标是将最初的MLPerf工作范畴扩展到“推动开发最新的AI和机器学习数据集和模型、最佳实践、基准和指标,并让使用更加便捷”。
Chukka认为,MLPerf可以泛指所有的基准测试,这些基准测试“像技术的发展一样,处于快速演进中”,从而通过“快速构建新的AI技术原型”来实现推动该领域发展的目标。每个基准测试都衡量了在一定的质量水平下,完成特定AI任务的速度。
这些基准测试分为两大类:一是训练,即使用数据构建AI模型;二是推理,即让AI模型像应用程序一样运行起来。用大语言模型(LLM)来类比:训练是指LLM从海量信息中学习的过程,而推理则是你每次安排它执行任务的时候。
MLCommons每年针对训练和推理两大类目分别发布两组基准测试结果。英特尔最近一次公布训练结果是在去年6月,而最新的推理结果则是在本月刚刚发布。
从MLPerf创立之初,再到之后的MLCommons,英特尔AI专家一直积极参与并贡献测试结果。英特尔从两方面参与其中:帮助塑造和推动整个项目的发展,同时使用英特尔的处理器、加速器和解决方案进行编译并提交基准测试结果。
MLPerf基准测试所解决的问题
AI模型是复杂的程序,现在越来越多种类的计算机能够运行这些模型。通过MLPerf基准测试,不仅能够更好地对比不同种类的计算机,同时也可以推动研究人员和企业进一步探索前沿技术。
每个基准测试都会尽可能贴近实际应用场景,而其结果则分为两个类别。其中,“封闭”类别对AI模型和软件堆栈进行严格控制,以尽可能精准地进行硬件比较,即在不同的系统中,使用相同的程序来实现相同的结果,如自然语言处理的准确率测试。
“开放”类别则包含创新因素,即让每个系统在实现相同目标的前提下,尽可能地突破性能极限。
值得注意的是,MLPerf将所有内容共享,且基准测试是开源的。测试结果需要是可复现的,无隐藏信息。正是这种开源开放的特性,能够让厂商进行更全面的比较,而不仅仅是单纯的速度对比。比如,厂商也可以从每瓦性能,或成本等维度进行对比。
MLPerf的运行及演进过程
正如Chukka所说,MLPerf之所以广受业界认可,部分原因在于它不断演进并持续增加新的基准测试。其演进过程主要是由MLCommons社区的公开讨论和辩论驱动的,而诸多大型企业、初创公司和学术界等均是该社区的参与者。
首先,新的基准测试会被提出并进行辩论,随后获批的基准测试需要一个公开的数据集用于训练。其中需要注意的是,该数据集可能已经存在,也可能需要重新创建。其次,参与者自愿组队,共同构建基准测试、确定或收集数据,并为基准测试的发布设定时间表。
最后,任何希望发布测试结果的公司都需要在截止日期前提交成果。如果错过该截止日期,则只能等待下一轮流程重新开启。
更快速、更高效的AI塑造世界的未来
当越来越多的人借助半导体技术攻克各类难题时,对于英特尔而言,无疑在宏观层面带来了显著的积极影响,然而,英特尔参与MLPerf基准测试,有着更为深远的意义。
英特尔一直在为AI开源框架贡献力量,如PyTorch及其扩展。当英特尔工程师努力优化代码以提升MLPerf的运行效率时,那些在英特尔芯片上部署相关AI应用的用户,无需任何额外操作,便能轻松受益于这些技术进步。
Chukka表示,“对于新的基准测试,我们也一直在探索可行的优化方案,并积极准备后续的提交工作。”
为了实现更出色的测试结果,Chukka团队汇集公司各方力量,在多轮测试中取得了出色的性能提升,例如,在2024年的测试结果中,推荐系统推理性能提升了80%,又如在本月的测试结果中,GPT-J基准测试性能提升了22%。
因此,当英特尔发布新一轮MLPerf测试结果时,往往也代表着整体AI系统都变得更快速、更高效,甚至时下热门的大模型,也能在响应用户新的需求时,给出更迅速、更智能的解答。
好文章,需要你的鼓励
上海交通大学研究团队利用影响函数揭示了数据特征如何刺激大型语言模型的数学和代码推理能力。研究发现高难度数学问题能同时提升数学和代码推理,而低难度编程任务对代码推理最有效。基于此,他们提出了"任务难度翻转"策略,使模型在AIME24准确率翻倍至20%。细粒度分析还显示,探索性思维行为对推理有积极影响,而数学推理偏好逻辑连接词,代码推理则强调结构化语法。这些发现为优化AI训练数据提供了重要指导。
本研究提出了"能力-难度对齐采样"方法(CDAS),革新了大型语言模型强化学习训练中的数据采样策略。与传统方法不同,CDAS通过聚合历史表现差异实现更稳定的问题难度估计,并将模型能力与问题难度动态匹配。在多个数学推理基准测试中,CDAS达到了46.77%的最高平均准确率,同时比竞争策略提高了2.33倍的计算效率。研究还证明了CDAS在代码生成任务和更大型模型上的有效性,为提升大型语言模型的推理能力提供了高效可靠的新方法。
InfantAgent-Next是一款突破性的多模态通用型AI助手,能通过文本、图像、音频和视频与计算机进行交互。不同于现有方法,它采用高度模块化架构,将基于工具和纯视觉的代理技术融为一体,让不同模型能逐步协作解决分散任务。在OSWorld视觉测试中达到7.27%的准确率,超越Claude-Computer-Use;同时在代码处理基准SWE-Bench和通用任务平台GAIA上也表现出色。其开源设计不仅提供了丰富工具集,还优化了鼠标点击定位和文件编辑功能,为AI自动操作计算机开创了新范式。
KAIST等机构研究团队提出的"覆盖原则"框架揭示了大语言模型在组合泛化能力上的基本局限。研究表明,依赖模式匹配的模型只能泛化到那些可以通过替换功能等价片段到达的输入。实验证实,两步推理任务的训练数据需求与词表大小成二次方增长,且增加模型参数并不改善这种关系;路径歧义任务会导致模型形成上下文依赖的表示;思维链监督虽能提高效率但仍受覆盖限制。研究最终提出三类泛化机制的分类法,为理解组合推理和真正系统性泛化所需的创新提供了清晰路径。