6月30日,国际权威AI性能基准评测平台MLPerf,发布了基于Training V1.0 的最新标准测试结果。宁畅 AI服务器X640 G40和X660 G45,分别以48.43、28.64成绩,取得固定任务(closed)赛道,单机服务器系统的MASK R-CNN、U-NET3D两项AI场景世界性能第一。
MASK R-CNN、U-NET3D是重量级图像目标检测以及图像分割模型,其应用场景包括自动驾驶、医疗图像分析、监控、工业检测等,是典型数据中心应用模型。而第一成绩背后是每秒分析5040张X光照片、57000张图片以及570余次训练迭代的,单机服务器世界极限处理速度。
MLPerf基准测试在国际AI领域有极高影响力,其基准联盟已有谷歌、Intel、NVIDIA、微软、Facebook等超50家成员。
新纪录诞生
宁畅方面介绍,本次MLPerf Training V 1.0测试,共有16家国际一线厂商在固定任务(closed)赛道,提交了91个单机系统配置,并于DLRM、MASK R-CNN、Resnet50、SSD、U-NET3D等8个AI场景下,产生超百项测试成绩。
MLPerf测试的AI场景包含固定任务(Closed)和开放优化(Open)两个赛道,固定任务(Closed)更侧重公平性,参与测试的各计算系统基于同一套参数运行。
搭载英特尔第三代至强可扩展处理器、Optane BPS大容量持久内存以及NVIDIA A100 Tensor Core GPU的宁畅X640 G40以及X660 G45,从众多机型配置中“杀出”,以48.43、28.64分钟成绩夺得MASK R-CNN、U-NET3D场景的单机世界性能第一,取得新世界性能纪录。
在MASK R-CNN、U-NET3D测试中,单机服务器系统需要运行29GB、21GB的原始图像数据,并通过分析与迭代最终完成模型训练。而完成过程所耗费时间越少,则印证系统性能越强。
除获得以上两项性能冠军外,在横向比较搭载同400W功耗GPU的单机服务器系统,宁畅X660 G45在DLRM(推荐系统)、SSD(目标检测)固定任务赛道,以1.92、8.51分钟成绩取得世界性能第一。
夺冠MLPerf的唯一初创公司
X640 G40支持多种GPU拓扑结构,针对不同AI场景和训练模型进行互联优化,以满足不同类型客户需求。
X660 G45是专为深度学习训练开发的高性能计算平台,满配8颗GPU并采用600GB/s 的NVLink总线高速互联。每个GPU还可搭配HDR 200Gb/s InfiniBand网络和NVMe SSD高速缓存,助用户搭建GPU高速集群。结合近500TB本地存储容量,可极大缩短用户AI模型训练时间。
本次MLPerf测试,宁畅是唯一取得冠军成绩的初创服务器厂商。而就在6月20日,宁畅还取得了8项SPEC CPU2017的同CPU配置服务器世界性能第一。2020年的MLPerf测试中,宁畅服务器更是打破了超10项世界性能纪录。
对于本次夺冠,宁畅工程师介绍MLPerf测试比拼的是厂家对服务器底层硬件与软件的理解和优化能力,而这些“能力”来源于对用户应用场景的深入理解与实践。宁畅团队专注服务器研发、生产已有15年之久,拥有近百万台服务器生产部署经验,可为用户提供全栈服务器定制化服务。
作为智能算力定制专家,宁畅创立的2020年便已有近千家企业、用户采购宁畅服务器产品,收到定制咨询350余次,累计落地服务器定制方案170项,宁畅用户已覆盖互联网、金融、电信等数十个行业,出货量数以万计。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。