6月30日,国际权威AI性能基准评测平台MLPerf,发布了基于Training V1.0 的最新标准测试结果。宁畅 AI服务器X640 G40和X660 G45,分别以48.43、28.64成绩,取得固定任务(closed)赛道,单机服务器系统的MASK R-CNN、U-NET3D两项AI场景世界性能第一。

MASK R-CNN、U-NET3D是重量级图像目标检测以及图像分割模型,其应用场景包括自动驾驶、医疗图像分析、监控、工业检测等,是典型数据中心应用模型。而第一成绩背后是每秒分析5040张X光照片、57000张图片以及570余次训练迭代的,单机服务器世界极限处理速度。
MLPerf基准测试在国际AI领域有极高影响力,其基准联盟已有谷歌、Intel、NVIDIA、微软、Facebook等超50家成员。
新纪录诞生
宁畅方面介绍,本次MLPerf Training V 1.0测试,共有16家国际一线厂商在固定任务(closed)赛道,提交了91个单机系统配置,并于DLRM、MASK R-CNN、Resnet50、SSD、U-NET3D等8个AI场景下,产生超百项测试成绩。
MLPerf测试的AI场景包含固定任务(Closed)和开放优化(Open)两个赛道,固定任务(Closed)更侧重公平性,参与测试的各计算系统基于同一套参数运行。
搭载英特尔第三代至强可扩展处理器、Optane BPS大容量持久内存以及NVIDIA A100 Tensor Core GPU的宁畅X640 G40以及X660 G45,从众多机型配置中“杀出”,以48.43、28.64分钟成绩夺得MASK R-CNN、U-NET3D场景的单机世界性能第一,取得新世界性能纪录。
在MASK R-CNN、U-NET3D测试中,单机服务器系统需要运行29GB、21GB的原始图像数据,并通过分析与迭代最终完成模型训练。而完成过程所耗费时间越少,则印证系统性能越强。
除获得以上两项性能冠军外,在横向比较搭载同400W功耗GPU的单机服务器系统,宁畅X660 G45在DLRM(推荐系统)、SSD(目标检测)固定任务赛道,以1.92、8.51分钟成绩取得世界性能第一。


夺冠MLPerf的唯一初创公司
X640 G40支持多种GPU拓扑结构,针对不同AI场景和训练模型进行互联优化,以满足不同类型客户需求。

X660 G45是专为深度学习训练开发的高性能计算平台,满配8颗GPU并采用600GB/s 的NVLink总线高速互联。每个GPU还可搭配HDR 200Gb/s InfiniBand网络和NVMe SSD高速缓存,助用户搭建GPU高速集群。结合近500TB本地存储容量,可极大缩短用户AI模型训练时间。

本次MLPerf测试,宁畅是唯一取得冠军成绩的初创服务器厂商。而就在6月20日,宁畅还取得了8项SPEC CPU2017的同CPU配置服务器世界性能第一。2020年的MLPerf测试中,宁畅服务器更是打破了超10项世界性能纪录。
对于本次夺冠,宁畅工程师介绍MLPerf测试比拼的是厂家对服务器底层硬件与软件的理解和优化能力,而这些“能力”来源于对用户应用场景的深入理解与实践。宁畅团队专注服务器研发、生产已有15年之久,拥有近百万台服务器生产部署经验,可为用户提供全栈服务器定制化服务。
作为智能算力定制专家,宁畅创立的2020年便已有近千家企业、用户采购宁畅服务器产品,收到定制咨询350余次,累计落地服务器定制方案170项,宁畅用户已覆盖互联网、金融、电信等数十个行业,出货量数以万计。
好文章,需要你的鼓励
PHP 8.5正式发布,引入了期待已久的管道操作符和符合标准的URI解析器。管道操作符支持函数调用链式操作,让代码更具可读性,避免冗余变量和嵌套语句。新增的URI扩展基于RFC 3986和WHATWG URL标准,为开发者提供标准化的URI解析功能。此外还包括Clone With属性更新、NoDiscard属性警告等特性。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
SkyReels是专为营销人员、设计师和社交媒体内容创作者打造的多模态生成式AI视频平台。该平台整合了Google Veo 3.1、Sora 2等顶级AI模型,支持文本转图像、图像转视频等多种工作流程。平台特色包括智能创意助手Expert Agent,通过结构化问答指导创作流程,以及150多个针对服装、消费品等领域的专业模板。SkyReels专注于TikTok、Instagram等社交平台的快速内容制作需求。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。