NVIDIA Turing GPU与 NVIDIA Xavier在MLPerf数据中心与边缘AI推理性能基准测试中取得最快成绩
加利福尼亚州圣克拉拉市——2019年11月6日——NVIDIA于今日公布,其在最新测定数据中心与边缘AI推理工作负载性能的基准测试中取得最快成绩。NVIDIA在前不久的AI训练基准测试中也展现出同样强大的实力,为此次获胜奠定了基础。
MLPerf Inference 0.5是业内首个独立AI推理基测套件,其测试结果证明了NVIDIA Turing数据中心GPU以及NVIDIA Xavier边缘计算芯片系统的性能。
MLPerf的五项推理基准适用于一系列形式因素和四种推理场景,涵盖了图像分类、目标检测和翻译等已有的AI应用。
凭借Turing GPU所提供的目前市面上单处理器最高的性能,NVIDIA在全部五项针对于两种数据中心关注的场景(服务器和离线)的基准测试中均排在首位。Xavier则是市面上针对两种边缘场景(单流和多流)性能最高的边缘和移动芯片系统。
NVIDIA副总裁兼加速计算总经理Ian Buck表示:“AI正处于从研究阶段迅速转向大规模实际应用部署的临界点。AI推理是一项巨大的计算挑战。NVIDIA将业内最先进的可编程加速器CUDA-X AI算法套件与我们在AI计算领域的深厚知识相结合,能够帮助数据中心部署庞大且正在不断增长的复杂AI模型。”
由于重视其计算平台在各种AI工作负载中的可编程性与性能,因此NVIDIA是唯一一家提交了全部五项MLPerf基准测试结果的AI计算平台公司。此前七月,NVIDIA就曾在多项MLPerf 0.6 AI训练基准测试结果中胜出,在训练性能方面创造了八项纪录。
NVIDIA GPU在全球最大的云基础设施中为大型推理工作负载提供加速,这些云基础设施包括阿里云、AWS、谷歌云平台、微软Azure和腾讯等。目前,AI正在朝操作和数据生成点的边缘移动。沃尔玛、宝洁等全球首屈一指的企业和机构正使用NVIDIA EGX边缘计算平台与AI推理能力在边缘运行复杂的AI工作负载。
NVIDIA的所有MLPerf测试结果均采用NVIDIA TensorRT 6高性能深度学习推理软件获得。该软件能够在生产中轻松优化和部署数据中心、边缘等位置的AI应用。此外,GitHub库还以开源形式提供新的TensorRT优化。
为了扩展其推理平台,NVIDIA于今日宣布推出了Jetson Xavier NX。Jetson Xavier NX是全球体积最小、性能最强大的适用于边缘机器人和嵌入式计算设备的AI超级计算机,它是围绕MLPerf Inference 0.5基准测试中所使用的Xavier芯片系统所打造的低功耗版本。
好文章,需要你的鼓励
Infinidat发布InfiniBox G4系列最新升级,实现容量翻倍、物理占用空间缩减31%、入门价格降低29%。新款InfiniBox SSA G4 F24仅占11个机架单元,起始容量77TB。混合系统单机架最大有效容量从17.2PBe跃升至33PBe,增幅达92%。系统原生集成S3对象存储协议,支持文件、块和对象存储统一管理,能效比竞品高7倍。
香港大学联合多家顶尖机构开发出推测性雅可比降噪解码技术,巧妙融合扩散模型降噪与自回归并行处理,将AI图像生成速度提升2-5倍。该方法通过训练模型处理噪声输入并预测干净标记,实现多位置同时生成,在保持图像质量的同时大幅缩短等待时间,为AI创作应用带来革命性改善。
微软的MAUI跨平台应用开发框架将通过第三方框架Avalonia获得Linux和浏览器支持。MAUI目前支持Android、iOS、Mac Catalyst和Windows平台,但缺少Linux支持。AvaloniaUI公司正在为MAUI开发新的后端,使用Avalonia渲染器替代原生控件,同时支持WebAssembly在浏览器中运行。该方案预计2026年第一季度提供预览版本。
韩国大学等机构研究团队提出TAG方法,解决AI绘画中的"幻觉"问题。该方法通过放大扩散过程中的切线分量来引导AI生成更真实图像,无需重训练模型且计算成本极低。实验显示TAG能显著改善图像质量,减少不合理细节如多指手等,同时可与现有引导技术结合使用,为AI绘画领域提供了简单有效的优化方案。