近年来,Nvidia一直在蓬勃发展,它的图形芯片对人工智能发挥了很好的作用,帮助在语音和图像以及自动驾驶汽车领域取得了突破。现在Nvidia的目标是,当众多厂商争相为深度学习神经网络提供从芯片到云服务的方方面面时,自己继续保持领先地位。
为此,Nvidia今天在美国加利福尼亚州圣何塞举行的GPU Technology Conference大会上推出了大量新产品和新服务,所有这些都围绕着Nvidia的GPU和相关软件。这些新产品既可以提高Nvidia芯片、使用Nvidia芯片的计算机和云服务的性能,同时也可以将深度学习扩展到可能多达数十亿种的产品中,从自动驾驶汽车到消费电子产品再到手机。
Nvidia公司创始人兼首席执行官黄仁勋表示:“使用GPU计算的人数呈指数级增长。我们正处在一个临界点。”
在所有这些公告中,显然缺席了最新一代的GPU,而通常是GTC大会的重头戏。Nvidia在去年5月的GTC大会上推出了基于Volta技术的Tesla V100芯片。但直到去年11月,这款最强大的芯片才通过所有主流高性能计算和云计算提供商供货,现在仍然在发展中。
不过在这次大会上,黄仁勋的确宣布推出了号称全球最大的GPU——基于Volta的Quadro GV100(下图)。这款芯片拥有16个Tesla V100芯片内核,以及一种新技术用于连接芯片中的处理内核。此外它还采用在上周游戏开发者大会上推出的RTX新图形技术。Nvidia表示,这是第一次我们能够实时完成光线追踪和创建真实图像的过程。“这对于实时计算机图形来说是一个巨大的飞跃。”
但是,最近几年业界的主要焦点是深度学习,而Nvidia并不缺乏支持使用深度学习的Volta芯片新技术。首先,黄仁勋介绍了对Nvidia平台进行的一系列改进,就过去六个月中,Nvidia将深度学习工作负载的性能提高了8倍。
原因之一就是Nvidia将V100的内存容量增加了一倍,达到32GB,这使得内存受限的高性能计算应用的性能提高了一半。另一个原因一个名为NVSwitch的新“结构”用于连接多个GPU,最多可支持16个V100之间的快速通信以运行更大的数据集,以及一个更新的软件“堆栈”。
DGX-2(来源:Nvidia)
此外,还有一款新的服务器DGX-2,Nvidia表示这是第一款可以提供每秒2 petaflops运算能力的单一服务器。这款服务器将在第三季度上市,预计售价为399,000美元。这款服务器可以在两天时间内处理标准FAIRSeq机器翻译模型,而以前这需要15天时间。黄仁勋表示:“我们正在以超越摩尔定律的速度大幅提升平台的性能。”
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“DGX-2最大的特点就是采用了全新的NVSwitch,从而提高性能并降低延迟,因为GPU不需要那么频繁地访问主内存......这是非常重要的一点。”
Nvidia的芯片已被大多数公司用来训练语音和图像识别等应用的深度学习模型,此外Nvidia也宣布推出了运行这些模型的新技术,称为“推理”。 Nvidia副总裁、加速计算总经理Ian Buck周一在新闻发布会上表示,推理任务正在越来越多地使用GPU。
例如,美国堪萨斯城正在使用深度学习来预测道路上会出现坑洞,准确率达到76%,并且预计未来准确率可以达到95%。Pinterest使用基于GPU的系统来做实时图像分类和推荐系统。Buck表示:“我们正在创建一个新的计算模型,这实际上就是用软件编写软件。”
为了扩展运用于推理任务中,Nvidia宣布推出新版本的TensorRT推理软件,其中包括与Google TensorFlow机器学习软件框架的集成。Nvidia还与AWS、Facebook和微软合作,确保如Caffe 2、MXNet CNTK、Chainer和Pytorch等框架可以在Nvidia平台上轻松运行。此外,针对软件容器的主流“编排”工具Kubernetes现在也具有了GPU加速功能,允许应用在多种计算机、操作系统和云上运行。
Nvidia将目标对准了将深度学习带入从汽车到智能手机的“物联网”设备中。为此,Nvidia与Arm建立了合作关系,Arm主要提供用于移动设备的节能型芯片,它将把Nvidia的开源Deep Learning Accelerator架构整合到Arm的Project Trillium机器学习处理器中。
Moorhead说:“这次的公布让Nvidia机器学习技术能够应用于家庭自动化甚至智能手机等小型物联网设备中。与Arm的合作并不能保证Nvidia NVDLA在‘非常小的边缘’上取得成功,但却大大增加了成功的机会。”
不仅如此,Nvidia还在应对改进自动驾驶汽车的关键任务,其中一项就是Uber上周在美国亚利桑那州发生的一起行人事故,该事故看起来是可以预防的。Nvidia汽车高级总监Danny Shapiro指出,Rand公司认为需要数十亿英里的训练来确保自动驾驶汽车的安全性。他说,在合理时间范围内做到这一点的唯一方法,就是是通过快速、超现实的模拟训练。
这就是Nvidia今天所宣布的内容。DRIVE Constellation是一款使用虚拟现实技术的自动驾驶模拟器,可模拟摄像头、LiDAR和用于汽车操作的雷达。来自该模拟器的数据被送入车内的另一台服务器DRIVE Pegasus进行处理,并将驾驶指令以每秒30次的频率发送回Constellation以验证车辆是否正常运行。通过反复模拟各种鲜少遇到的“怪异”驾驶情况,可以不断改进这一系统。
这一点是特别关键的,因为Nvidia今天宣布,由于Uber暂停了在亚利桑那州的测试,所以Nvidia也暂时停止了自动驾驶汽车的测试。目前有数百家公司在自动驾驶汽车上使用Nvidia的DRIVE技术。
Moorhead表示:“DRIVE Constellation让Nvidia能够提供逼真的图像,让人们可以在游戏和电影创作中创造其背景。我希望汽车公司能够模拟数百亿英里的驾驶,而不必在真正的汽车中进行驾驶,因为这可能会危及生命。”
此外,各种与人工智能相关的公告似乎也让Nvidia走在了机器学习模型训练和运行所需的芯片和软件的前沿领域。尽管最近这个领域的竞争愈加激烈,例如英特尔在去年11月出人意料地宣布与长期竞争对手AMD达成合作伙伴关系,为高端笔记本个人电脑制造芯片,将英特尔的CPU与AMD的GPU相结合。Google利用自己专门针对机器学习优化的Tensor Processing Unit芯片在云服务领域扩张。
尽管如此Buck还是指出,由于现在还处于机器学习变革的早期阶段,新的模型不断涌现,“有一个可编程的程序来处理这些是非常重要的。”从目前情况来看,他的观点是对的,Moor Insights&Strategy高性能计算和的深度学习咨询负责人Karl Freund这样表示。
Freund称:“我不认为任何竞争对手当前都具有任何有意义的吸引力。这个情况可能会有所改变,但与Nvidia相比,迄今为止他们所做的所有努力都显得相当薄弱。”
机器学习仍然保持着快速的发展势头。Global Equities Research分析师Trip Chowdhry表示:“深度机器学习是每个企业应用和消费应用的前沿和中心,因此对Nvidia GPU的投资不会很快就停止下来。”
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
NVIDIA研究团队开发的OmniVinci是一个突破性的多模态AI模型,能够同时理解视觉、听觉和文本信息。该模型仅使用0.2万亿训练样本就超越了使用1.2万亿样本的现有模型,在多模态理解测试中领先19.05分。OmniVinci采用三项核心技术实现感官信息协同,并在机器人导航、医疗诊断、体育分析等多个实际应用场景中展现出专业级能力,代表着AI向真正智能化发展的重要进步。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
Salesforce研究团队发布BLIP3o-NEXT,这是一个创新的图像生成模型,采用自回归+扩散的双重架构设计。该模型首次成功将强化学习应用于图像生成,在多物体组合和文字渲染方面表现优异。尽管只有30亿参数,但在GenEval测试中获得0.91高分,超越多个大型竞争对手。研究团队承诺完全开源所有技术细节。