Tensor Core GPU在每一项MLPerf基准测试结果中均实现最佳表现;用户可通过NGC使用加速堆栈。
在最新公布的业内首套人工智能基准测试中,NVIDIA创下6项人工智能性能记录。
在谷歌、英特尔、百度、NVIDIA及其他数十家科技行业领军企业的支持下,新型基准测试套件MLPerf可测定一系列深度学习工作负载。该套件涵盖了计算机视觉、语言翻译、个性化推荐以及强化学习任务等领域,旨在成为业内首个客观的人工智能基准测试套件。
NVIDIA在其提交的6个MLPerf基准测试结果中均取得了最佳表现。这些测试涵盖了多种工作负载和基础架构规模 – 从单节点上的16颗GPU到跨80节点上的多达640颗GPU。
这些测试分为6大类别,分别为图像分类、对象实例分割、目标检测、临时翻译、复发性翻译与推荐系统。NVIDIA并未提交第7类别,即强化学习的基准测试,原因是该类别尚未充分利用到GPU加速。
NVIDIA在语言翻译这一关键基准测试类别中表现尤为出色,仅需6.2分钟即完成了Transformer神经网络的训练。
NVIDIA工程师利用NVIDIA DGX系统实现了这些测试结果。该系统包括全球最强大的人工智能系统NVIDIA DGX-2,搭载了16颗完全连接的V100 Tensor Core GPU。
NVIDIA是唯一一家参与多达6项基准测试的科技公司,充分展现出V100 Tensor Core GPU在部署人工智能工作负载方面的通用性。
NVIDIA副总裁兼加速计算总经理Ian Buck表示:“全新基准MLPerf展示了NVIDIA Tensor Core GPU非凡的性能与通用性。我们的Tensor Core GPU拥有高性价比,且可通过各地的云服务提供商及电脑制造商实现供货,进而帮助世界各地的开发人员在开发过程中的每一个阶段推进人工智能的应用。”
要想在复杂多样的计算工作负载中实现优异性能,不仅仅需要出色的芯片。加速计算也不单单与加速器有关,还需要实现全堆栈创新。
NVIDIA堆栈包括NVIDIA Tensor Cores、NVLink、NVSwitch、DGX系统、CUDA、cuDNN、NCCL、经过优化的深度学习框架容器以及NVIDIA软件开发套件。
NVIDIA的人工智能平台是最便捷且高性价比的选择。Tensor Core GPU可通过各地的云服务提供商及电脑制造商实现供货。
借助售价仅为2500美元的超强桌面级GPU——NVIDIA TITAN RTX,用户在桌面上也可实现相同的Tensor Core GPU强大功能。如果按照3年使用期来计算,该GPU每小时的费用仅相当于几美分。
通过NVIDIA GPU Cloud(NGC)云容器注册,用户可持续更新这些软件的加速堆栈。
用于实现NVIDIA业界领先的MLPerf性能的软件创新与优化,现可通过我们最新的NGC深度学习容器免费获取。
此容器包含经过NVIDIA优化的完整软件堆栈及顶级人工智能框架。18.11版本NGC深度学习容器包含了用于实现我们MLPerf基准测试结果的详细软件。
开发人员可将这些软件用于任意地点以及各大开发阶段:
如果您计划开展自己的人工智能项目,或者参与MLPerf基准测试,请通过NGC容器注册下载容器。
好文章,需要你的鼓励
IBM Spyre加速器将于本月晚些时候正式推出,为z17大型机、LinuxONE 5和Power11系统等企业级硬件的AI能力提供显著提升。该加速器基于定制芯片的PCIe卡,配备32个独立加速器核心,专为处理AI工作负载需求而设计。系统最多可配置48张Spyre卡,支持多模型AI处理,包括生成式AI和大语言模型,主要应用于金融交易欺诈检测等关键业务场景。
加拿大女王大学研究团队首次对开源AI生态系统进行端到端许可证合规审计,发现35.5%的AI模型在集成到应用时存在许可证违规。他们开发的LicenseRec系统能自动检测冲突并修复86.4%的违规问题,揭示了AI供应链中系统性的"许可证漂移"现象及其法律风险。
意大利初创公司Ganiga开发了AI驱动的智能垃圾分拣机器人Hoooly,能自动识别并分类垃圾和可回收物。该公司产品包括机器人垃圾桶、智能盖子和废物追踪软件,旨在解决全球塑料回收率不足10%的问题。2024年公司收入50万美元,已向谷歌和多个机场销售超120台设备,计划融资300万美元并拓展美国市场。
这项由剑桥大学、清华大学和伊利诺伊大学合作的研究首次将扩散大语言模型引入语音识别领域,开发出Whisper-LLaDA系统。该系统具备双向理解能力,能够同时考虑语音的前后文信息,在LibriSpeech数据集上实现了12.3%的错误率相对改进,同时在大多数配置下提供了更快的推理速度,为语音识别技术开辟了新的发展方向。