NVIDIA Turing GPU与 NVIDIA Xavier在MLPerf数据中心与边缘AI推理性能基准测试中取得最快成绩
加利福尼亚州圣克拉拉市——2019年11月6日——NVIDIA于今日公布,其在最新测定数据中心与边缘AI推理工作负载性能的基准测试中取得最快成绩。NVIDIA在前不久的AI训练基准测试中也展现出同样强大的实力,为此次获胜奠定了基础。
MLPerf Inference 0.5是业内首个独立AI推理基测套件,其测试结果证明了NVIDIA Turing数据中心GPU以及NVIDIA Xavier边缘计算芯片系统的性能。
MLPerf的五项推理基准适用于一系列形式因素和四种推理场景,涵盖了图像分类、目标检测和翻译等已有的AI应用。
凭借Turing GPU所提供的目前市面上单处理器最高的性能,NVIDIA在全部五项针对于两种数据中心关注的场景(服务器和离线)的基准测试中均排在首位。Xavier则是市面上针对两种边缘场景(单流和多流)性能最高的边缘和移动芯片系统。
NVIDIA副总裁兼加速计算总经理Ian Buck表示:“AI正处于从研究阶段迅速转向大规模实际应用部署的临界点。AI推理是一项巨大的计算挑战。NVIDIA将业内最先进的可编程加速器CUDA-X AI算法套件与我们在AI计算领域的深厚知识相结合,能够帮助数据中心部署庞大且正在不断增长的复杂AI模型。”
由于重视其计算平台在各种AI工作负载中的可编程性与性能,因此NVIDIA是唯一一家提交了全部五项MLPerf基准测试结果的AI计算平台公司。此前七月,NVIDIA就曾在多项MLPerf 0.6 AI训练基准测试结果中胜出,在训练性能方面创造了八项纪录。
NVIDIA GPU在全球最大的云基础设施中为大型推理工作负载提供加速,这些云基础设施包括阿里云、AWS、谷歌云平台、微软Azure和腾讯等。目前,AI正在朝操作和数据生成点的边缘移动。沃尔玛、宝洁等全球首屈一指的企业和机构正使用NVIDIA EGX边缘计算平台与AI推理能力在边缘运行复杂的AI工作负载。
NVIDIA的所有MLPerf测试结果均采用NVIDIA TensorRT 6高性能深度学习推理软件获得。该软件能够在生产中轻松优化和部署数据中心、边缘等位置的AI应用。此外,GitHub库还以开源形式提供新的TensorRT优化。
为了扩展其推理平台,NVIDIA于今日宣布推出了Jetson Xavier NX。Jetson Xavier NX是全球体积最小、性能最强大的适用于边缘机器人和嵌入式计算设备的AI超级计算机,它是围绕MLPerf Inference 0.5基准测试中所使用的Xavier芯片系统所打造的低功耗版本。
好文章,需要你的鼓励
谷歌Agent Development Kit(ADK)革新了AI应用开发模式,采用事件驱动的运行时架构,将代理、工具和持久化状态整合为统一应用。ADK以Runner为核心,通过事件循环处理用户请求、模型调用和外部工具执行。执行逻辑层管理LLM调用和工具回调,服务层提供会话、文件存储等持久化能力。这种架构支持多步推理、实时反馈和状态管理,为构建超越简单聊天界面的生产级AI应用提供了完整框架。
上海AI实验室联合团队开发RoboVIP系统,通过视觉身份提示技术解决机器人训练数据稀缺问题。该系统能生成多视角、时间连贯的机器人操作视频,利用夹爪状态信号精确识别交互物体,构建百万级视觉身份数据库。实验显示,RoboVIP显著提升机器人在复杂环境中的操作成功率,为机器人智能化发展提供重要技术突破。
苹果在iOS 26中推出全新游戏应用,为iPhone、iPad和Mac用户提供个性化的游戏中心。该应用包含五个主要版块:主页展示最近游戏和推荐内容,Arcade专区提供超过200款无广告游戏,好友功能显示Game Center动态并支持游戏挑战,资料库可浏览已安装游戏并提供筛选选项,搜索功能支持按类别浏览。iOS 26.2版本还增加了游戏手柄导航支持,为游戏玩家提供更便捷的操作体验。
英伟达研究团队提出GDPO方法,解决AI多目标训练中的"奖励信号坍缩"问题。该方法通过分别评估各技能再综合考量,避免了传统GRPO方法简单相加导致的信息丢失。在工具调用、数学推理、代码编程三大场景测试中,GDPO均显著优于传统方法,准确率提升最高达6.3%,且训练过程更稳定。该技术已开源并支持主流AI框架。