AI现在风头正劲。围绕生成式AI涌现了一系列举措,几乎每家科技企业都急于将大型语言模型整合到他们的产品中。其中,微软是ChatGPT背后公司OpenAI的长期投资者。上周,微软向我们展示了大型语言模型将如何显着改变微软办公产品的用户体验,很有说服力。
但是,AI并不仅仅局限于大型语言模型,正如近日Nvidia在年度GTC大会上提醒我们的。AI正在改变从零售防损到医疗诊断的方方面面,通过数据解释可以带来更高价值任何方面都适合试水AI。
Nvidia正处于这场革命的中心。Nvidia的GPU是业内最常见、最强大的。除了硬件之外,NVIDIA还通过软件工具推进Nvidia的普及,这些软件工具涵盖了从边缘推理到自动驾驶再到医学成像的各个领域,潜力无限。奇妙的是,Nvidia大部分的软件都是可以免费使用的,只需要Nvidia的GPU即可真正交付。
生成式AI的吸引力
生成式AI(例如OpenAI的ChatGPT)推动了对最新一代Nvidia加速器的强劲需求。Nvidia公司首席执行官黄仁勋告诉我们,由于过去三个月这个领域发生的变化,与大型语言模型推理直接相关的加速器销量已经“飙升”到Nvidia对该技术的看法“发生了巨大变化”的程度。
即使是处理生成式AI的推理任务也需要大量资源,这对小公司来说成本过高,导致企业资本支出较高,这时候云就可以发挥作用了。黄仁勋对此表示认同,并称,云服务提供商正在推动巨大的需求,而我们才刚刚开始。
在他看来,云服务提供商化身AI“工厂”,其中生成的最终产品都是智能的,这些公司将混合本地环境和云环境,其中云占据大多数。
云中的Nvidia
使用最先的机器学习,其挑战之一就是硬件相对成本较高。Nvidia没有公布自己高端加速器的价格,但估计最新一代基于Hopper的GH100价格就接近30000美元。如果你使用了其中一款加速器,那么投入的资本就很多了。这时候公有云就可以派上用场了。
每个云服务提供商都提供了基于Nvidia产品的加速实例,其中很多产品可以追溯到多代之前。在高端方面,Azure、AWS、Google Cloud和Oracle Cloud都提供了基于Nvidia A100加速器的实例类型,而且这些云服务提供商很快也将支持最新一代的H100,其中Azure已经在预览新的实例了。
根据Liftr Insights对全球六大云服务提供商的云实例进行追踪显示,Nvidia GPU在公有云GPU加速实例中占到了93%多。其中,绝大多数是基于Nvidia Ampere架构的;其他还包括Nvidia的A100、A10G和A10加速器,未来还将包括新的H100加速器。
市场正在对云驱动的AI模型做出响应。在Nvidia最近的财报电话会议上,首席财务官Colette Kress表示,“随着越来越多的企业客户转向采用云优先方法,去年云服务提供商客户收入增长显着超过了数据中心收入的整体增长。云服务提供商客户连续四个季度占到我们数据中心收入的约40%。”这一点很重要。
Kress接着说,以收入计算,2022年第四季度市场对新H100加速器的需求已经“远高于”A100。
Nvidia DGX云
Nvidia早在2017年就推出了交钥匙型的DGX“深度学习超级计算机”,并随着新一代加速器的推出不断对其更新。最新一代Nvidia的DGX H100是一款功能强大的系统。该系统结合了8个Nvidia H100 GPU和640 GB的GPU内存,以及2个最新的英特尔至强处理器的56核版本,全部与Nvidia NVLink进行互连,可以提供32 petaFLOPS的性能。
黄仁勋在最近一次财报电话会议上宣布,将以Nvidia“DGX Cloud”的方式直接通过云服务提供商提供这种DGX系统。他表示,“NVIDIA DGX是一台AI超级计算机,也是正在全球建设的AI工厂蓝图。构建AI超级计算机既困难又耗时,今天我们宣布推出Nvidia DGX Cloud,是拥有自己的DGX AI超级计算机最快、也是最简单的方法。您只需打开自己的浏览器即可获得。目前,Oracle Cloud infrastructure和微软Azure已经提供Nvidia DGX云,未来谷歌GCP等公司也将提供支持。”
这个强大的系统为AI研究人员和那些希望利用前沿AI技术的商业实体降低了准入门槛。在推出DGX Cloud之前,IT管理员被迫通过公有云产品组装他们的AI基础设施。DGX云通过这个过程消除了一定的复杂性。
Nvidia DGX提供了多种选择,其中包括独立的NVIDIA DGX A100和H100系统、NVIDIA DGX BasePOD参考架构和NVIDIA DGX SuperPOD一站式人工智能数据中心解决方案。目前DGX云是通过云服务提供商提供的DGX H100。
分析师观点
Nvidia数据中心业务的表现让游戏业务黯然失色。在过去的二十年里,Nvidia战略性地投资于支持企业AI。利用Nvidia提供的工具为一系列支持AI的应用构建系统是非常简单的,而且这在工业边缘是真实的,你可以想象得到,它在最高性能的深度学习集群中同样奏效。
Nvidia的优势在于硬件工程和软件支持。Nvidia种类繁多的云原生软件让这一切变得简单,而高性能是通过Nvidia硬件体现的。
通过公有云合作伙伴直接向用户提供DGX是很有意义的,这些合作伙伴已经为Nvidia的财报带来的好处。这种模式为高性能AI带来了类似云的效率。云服务提供商吸收资本支出,同时将其分摊到广泛的客户群中,而最终客户则获得了负担得起的云接入。
在过去六个月中,大型语言模型带来的变化令人难以置信。将其与AI世界中其他一切结合在一起,可能带来无限的可能性,只有通过Nvidia的不断创新才能实现的可能性。
好文章,需要你的鼓励
NetApp成为NFL官方智能数据基础设施合作伙伴,通过数据存储技术提升联盟运营,支持伦敦和马德里赛事,彰显其不断扩大的体育赞助战略。
FICO 首席分析官 Scott Zoldi 阐述了如何利用自建数据集、定制模型、AI 区块链技术等手段,实现小型语言模型与 agentic AI 在金融风险、诈骗等领域的有效落地,同时兼顾监管与创新。
NTT DATA的首席AI官柯林斯指出,企业AI正从辅助角色进化为自主决策的代理,其未来发展将依靠混合AI与全员AI素养,并需构建完善治理机制。
调查显示大部分CIO云支出超预算,主要因使用量激增(如AI任务增加),虽成本上升,但因云平台能加速创新、节约资源,他们仍看好云计算,并采取优化措施应对。