Tensor Core GPU在每一项MLPerf基准测试结果中均实现最佳表现;用户可通过NGC使用加速堆栈。
在最新公布的业内首套人工智能基准测试中,NVIDIA创下6项人工智能性能记录。
在谷歌、英特尔、百度、NVIDIA及其他数十家科技行业领军企业的支持下,新型基准测试套件MLPerf可测定一系列深度学习工作负载。该套件涵盖了计算机视觉、语言翻译、个性化推荐以及强化学习任务等领域,旨在成为业内首个客观的人工智能基准测试套件。
NVIDIA在其提交的6个MLPerf基准测试结果中均取得了最佳表现。这些测试涵盖了多种工作负载和基础架构规模 – 从单节点上的16颗GPU到跨80节点上的多达640颗GPU。
这些测试分为6大类别,分别为图像分类、对象实例分割、目标检测、临时翻译、复发性翻译与推荐系统。NVIDIA并未提交第7类别,即强化学习的基准测试,原因是该类别尚未充分利用到GPU加速。
NVIDIA在语言翻译这一关键基准测试类别中表现尤为出色,仅需6.2分钟即完成了Transformer神经网络的训练。
NVIDIA工程师利用NVIDIA DGX系统实现了这些测试结果。该系统包括全球最强大的人工智能系统NVIDIA DGX-2,搭载了16颗完全连接的V100 Tensor Core GPU。
NVIDIA是唯一一家参与多达6项基准测试的科技公司,充分展现出V100 Tensor Core GPU在部署人工智能工作负载方面的通用性。
NVIDIA副总裁兼加速计算总经理Ian Buck表示:“全新基准MLPerf展示了NVIDIA Tensor Core GPU非凡的性能与通用性。我们的Tensor Core GPU拥有高性价比,且可通过各地的云服务提供商及电脑制造商实现供货,进而帮助世界各地的开发人员在开发过程中的每一个阶段推进人工智能的应用。”
要想在复杂多样的计算工作负载中实现优异性能,不仅仅需要出色的芯片。加速计算也不单单与加速器有关,还需要实现全堆栈创新。
NVIDIA堆栈包括NVIDIA Tensor Cores、NVLink、NVSwitch、DGX系统、CUDA、cuDNN、NCCL、经过优化的深度学习框架容器以及NVIDIA软件开发套件。
NVIDIA的人工智能平台是最便捷且高性价比的选择。Tensor Core GPU可通过各地的云服务提供商及电脑制造商实现供货。
借助售价仅为2500美元的超强桌面级GPU——NVIDIA TITAN RTX,用户在桌面上也可实现相同的Tensor Core GPU强大功能。如果按照3年使用期来计算,该GPU每小时的费用仅相当于几美分。
通过NVIDIA GPU Cloud(NGC)云容器注册,用户可持续更新这些软件的加速堆栈。
用于实现NVIDIA业界领先的MLPerf性能的软件创新与优化,现可通过我们最新的NGC深度学习容器免费获取。
此容器包含经过NVIDIA优化的完整软件堆栈及顶级人工智能框架。18.11版本NGC深度学习容器包含了用于实现我们MLPerf基准测试结果的详细软件。
开发人员可将这些软件用于任意地点以及各大开发阶段:
如果您计划开展自己的人工智能项目,或者参与MLPerf基准测试,请通过NGC容器注册下载容器。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。