美国东部时间6月30日,国际权威AI基准测试MLPerf™公布最新一期榜单。在集群封闭任务赛道中,谷歌与NVIDIA各自获得4项第一;在单机封闭任务赛道中,浪潮获全部8项训练任务的4项冠军,NVIDIA、Nettrix各获得2项任务冠军。
MLPerf™由图灵奖得主大卫•帕特森(David Patterson)联合谷歌、斯坦福、哈佛大学等顶尖学术机构发起成立,是影响力最广的国际AI性能基准评测。此次性能评测基于最新MLPerf™ Training V1.0基准,分为固定任务(Closed)和开放任务(Open)。其中,固定任务要求使用相同模型和优化器,衡量同一深度学习模型在不同软硬件上的性能,广受厂商和客户看重;开放任务则放开对深度学习模型及精度的约束,侧重深度学习模型及算法优化的能力,旨在推进ML模型和优化的创新。
MLPerf™V1.0基准测试涵盖了8类极具代表性的机器学习任务,分别为图像识别(ResNet)、医学影像分割(U-Net3D)、目标物体检测(SSD)、目标物体检测(Mask R-CNN)、语音识别(RNN-T)、自然语言理解(BERT)、智能推荐(DLRM)以及强化机器学习(MiniGo)。其中,ResNet50和BERT作为计算机视觉和自然语言理解中最具代表性的AI模型,竞争最为激烈。
包括谷歌、NVIDIA、Intel、浪潮、戴尔、联想等在内的13家公司及科研机构,参与了此次MLPerf™封闭任务赛道测试。

谷歌与NVIDIA在集群系统测试中展开激烈冠亚军争夺,最终谷歌获得了ResNet、SSD、BERT和DLRM四项任务的第一,NVIDIA则夺得U-Net3D、Mask R-CNN、RNN-T和MiniGo四项任务冠军,双方平分秋色。在单机系统测试中浪潮获得ResNet、SSD、BERT和DLRM四项任务的冠军,NVIDIA获得RNN-T和MiniGo两项第一,Nettrix获得U-Net3D、Mask R-CNN两项第一。

作为业内最权威的AI基准测试,每一次MLPerfTM评测结果都在刷新业内纪录,不断突破AI系统性能。和2020年榜单相比,今年榜单的各项任务测试成绩均有明显提升。在集群训练上,Google在ResNet模型训练任务中以0.23分钟打破2020年创下的0.47分钟纪录,耗时缩短51%;在Bert模型任务中Google以0.29分钟完成训练,相比2020年0.39分钟的最佳纪录,用时缩短26%。
在单机性能上,浪潮同样在备受关注的ResNet和BERT上取得了新突破,创下单机27.38分钟完成128万张图片训练BERT模型的新纪录,比2020年最佳纪录耗时缩短18%;在BERT模型训练中,浪潮以21.15分钟打破2020年最佳成绩49.01分钟,用时缩短57%。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
华东理工大学团队开发了3DEditFormer系统和3DEditVerse数据集,首次实现了无需手工3D遮罩的高质量3D模型编辑。该技术通过双重引导注意力和时间自适应门控机制,让3D编辑变得像2D修图一样简单直观,在游戏开发、影视制作、AR/VR等领域具有广阔应用前景,标志着3D编辑技术向普及化迈出重要一步。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
上海AI实验室联合多所高校突破多模态AI训练难题,提出NaViL原生训练方法。通过预训练语言模型起点、混合专家架构和视觉-语言能力最佳平衡三大创新,在有限资源下实现与拼装式模型相当性能。该研究证明原生训练的可行性,为AI真正理解图文结合提供新思路,有望在教育、医疗等领域带来更自然的人机交互体验。