2022年4月7日,全球权威AI基准评测MLPerf™公布最新AI推理(Inference)V2.0榜单,浪潮AI服务器以最高性能获得了数据中心(固定任务)的全部16项冠军。
MLPerf™由图灵奖得主大卫•帕特森(David Patterson)联合顶尖学术机构发起成立,是国际最权威的AI性能基准评测,每年组织AI推理和AI训练测试各两次,以对迅速增长的AI计算需求与性能进行及时的跟踪测评。MLPerf™比赛通常分为固定任务(Closed)和开放优化(Open)两类任务,开放优化能力着重考察参测厂商的AI技术创新力,固定任务则因更公平地考察参测厂商的硬件系统和软件优化的能力,成为更具参考价值的AI性能基准测试。
本次是2022年MLPerf™的首次AI推理性能评测,旨在考察在各类AI任务中,不同厂商计算系统的推理速度和能力。本次评测中,在竞争最激烈的数据中心(固定任务)赛道,共有926项成绩提交,数量较上次比试翻倍,竞争非常激烈。
浪潮AI服务器创推理性能新纪录
本次MLPerf™AI推理性能评测涵盖使用广泛的六大AI场景,包括图像分类、自然语言理解、语音识别、目标物体检测、医学影像分割、智能推荐,每个场景采用最主流的AI模型作为测试任务,分别为ResNet50、BERT、RNNT、SSD-ResNet34、3D-Unet、DLRM。MLPerf™测试要求模型推理精度达到99%以上,对于自然语言理解、医学影像分割和智能推荐3个任务则设置99%与99.9%两种精度要求,以考察当提升AI推理精度要求时对计算性能的影响。
为更加贴近实际应用情况,MLPerf™推理测试在数据中心赛道下设置了离线(Offline)与在线(Server)两种模式。离线模式代表任务所需所有数据都在本地可用,典型场景如大批量医疗影像样本存于本地等待统一识别。在线模式则反映了大部分的即时AI应用,其数据和请求以突发和间歇的方式在线送达,例如用户在浏览购物网站时智能推荐的推理请求。
浪潮AI服务器此次表现出色,以最高性能包揽了此次MLPerf™数据中心(固定任务)赛道的全部16项冠军。
本次MLPerf™测试中,浪潮AI服务器在ResNet50模型任务中创造了每秒处理449,856张图片的性能纪录,相当于仅用2.8秒即完成ImageNet数据集128万张图片的分类;在3D-UNet模型任务中,创造了每秒处理36.25张医疗影像的新纪录,相当于在6秒内完成对KiTS19数据集207张3D医疗影像的分割;在SSD-ResNet34模型任务中,创造了每秒对11,081.9张图片完成目标物体识别及定位的新纪录;在BERT模型任务中,创造了平均每秒完成38,776.7个问答的性能纪录,在RNNT模型任务中,创造了每秒将155,811段语音转为文字的性能纪录,在DLRM模型任务中,则创造每秒实现2,645,980次点击预测的最佳性能纪录。
此外,本次MLPerf™评测还设有边缘推理赛道,浪潮面向边缘场景设计的AI服务器同样表现出色,在边缘固定任务赛道的全部17项任务中斩获了11项冠军。
随着AI应用在各个行业中的持续深化,更快的推理速度,将带来更高的AI应用效率与能力,加速产业智能化转型。相比半年前的MLPerf™AI推理榜单V1.1,浪潮AI服务器将图像分类、语音识别和自然语言理解任务的推理性能分别提升31.5%、28.5%及21.3%,意味着浪潮AI服务器在自动驾驶、语音会议、智能问答和智慧医疗等等场景中,能够更高效快速地完成各类智能任务。
全栈优化能力助推AI性能持续提升
浪潮AI服务器在MLPerf™基准评测中的出色表现,得益于浪潮信息卓越的AI系统设计能力和全栈优化能力。
本次参与测评的浪潮AI服务器NF5468M6J拥有出色的系统设计,以分层可扩展计算架构在业界率先实现对12颗NVIDIA A100 Tensor Core GPU的支持,并以极佳的性能成绩一举揽获12项冠军。浪潮信息也是本次MLPerf™竞赛中可以唯一提供服务器支持8颗500W NVIDIA A100 GPU的厂商,并实现了风冷及液冷两种散热方式。在此次参赛的8颗GPU NVLink高端主流机型中,浪潮AI服务器在数据中心16个任务中斩获14项最佳成绩,展现出在高端机型中的领先优势。其中,NF5488A5是全球首批上市的A100服务器,在4U空间支持8颗第三代NVlink互联的NVIDIA A100 GPU和2颗AMD Milan CPU。NF5688M6是面向大规模数据中心优化设计的具备极致扩展能力的AI服务器,支持8颗A100 GPU和2颗Intel Icelake CPU,支持多达13张PCIe Gen4的IO扩展卡。
在硬件层面,浪潮AI服务器通过对CPU、GPU硬件性能的精细校准和全面优化,使CPU性能、GPU性能、CPU与GPU之间的数据通路均处于对AI推理最优状态;在软件层面,结合GPU硬件拓扑对多GPU的轮询调度优化使单卡至多卡性能达到了近似线性扩展;在深度学习算法层面,结合GPU Tensor Core 单元的计算特征,通过自研通道压缩算法成功实现了模型的极致性能优化。
浪潮信息是全球领先的AI计算厂商,AI服务器市场份额全球第一,连续五年以超50%的市场份额稳居中国AI服务器市场第一。浪潮信息致力于AI计算平台、资源平台和算法平台的研发创新,并通过元脑生态携手领先伙伴加速数实相融。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。