AI现在风头正劲。围绕生成式AI涌现了一系列举措,几乎每家科技企业都急于将大型语言模型整合到他们的产品中。其中,微软是ChatGPT背后公司OpenAI的长期投资者。上周,微软向我们展示了大型语言模型将如何显着改变微软办公产品的用户体验,很有说服力。
但是,AI并不仅仅局限于大型语言模型,正如近日Nvidia在年度GTC大会上提醒我们的。AI正在改变从零售防损到医疗诊断的方方面面,通过数据解释可以带来更高价值任何方面都适合试水AI。
Nvidia正处于这场革命的中心。Nvidia的GPU是业内最常见、最强大的。除了硬件之外,NVIDIA还通过软件工具推进Nvidia的普及,这些软件工具涵盖了从边缘推理到自动驾驶再到医学成像的各个领域,潜力无限。奇妙的是,Nvidia大部分的软件都是可以免费使用的,只需要Nvidia的GPU即可真正交付。
生成式AI的吸引力
生成式AI(例如OpenAI的ChatGPT)推动了对最新一代Nvidia加速器的强劲需求。Nvidia公司首席执行官黄仁勋告诉我们,由于过去三个月这个领域发生的变化,与大型语言模型推理直接相关的加速器销量已经“飙升”到Nvidia对该技术的看法“发生了巨大变化”的程度。
即使是处理生成式AI的推理任务也需要大量资源,这对小公司来说成本过高,导致企业资本支出较高,这时候云就可以发挥作用了。黄仁勋对此表示认同,并称,云服务提供商正在推动巨大的需求,而我们才刚刚开始。
在他看来,云服务提供商化身AI“工厂”,其中生成的最终产品都是智能的,这些公司将混合本地环境和云环境,其中云占据大多数。
云中的Nvidia
使用最先的机器学习,其挑战之一就是硬件相对成本较高。Nvidia没有公布自己高端加速器的价格,但估计最新一代基于Hopper的GH100价格就接近30000美元。如果你使用了其中一款加速器,那么投入的资本就很多了。这时候公有云就可以派上用场了。
每个云服务提供商都提供了基于Nvidia产品的加速实例,其中很多产品可以追溯到多代之前。在高端方面,Azure、AWS、Google Cloud和Oracle Cloud都提供了基于Nvidia A100加速器的实例类型,而且这些云服务提供商很快也将支持最新一代的H100,其中Azure已经在预览新的实例了。
根据Liftr Insights对全球六大云服务提供商的云实例进行追踪显示,Nvidia GPU在公有云GPU加速实例中占到了93%多。其中,绝大多数是基于Nvidia Ampere架构的;其他还包括Nvidia的A100、A10G和A10加速器,未来还将包括新的H100加速器。
市场正在对云驱动的AI模型做出响应。在Nvidia最近的财报电话会议上,首席财务官Colette Kress表示,“随着越来越多的企业客户转向采用云优先方法,去年云服务提供商客户收入增长显着超过了数据中心收入的整体增长。云服务提供商客户连续四个季度占到我们数据中心收入的约40%。”这一点很重要。
Kress接着说,以收入计算,2022年第四季度市场对新H100加速器的需求已经“远高于”A100。
Nvidia DGX云
Nvidia早在2017年就推出了交钥匙型的DGX“深度学习超级计算机”,并随着新一代加速器的推出不断对其更新。最新一代Nvidia的DGX H100是一款功能强大的系统。该系统结合了8个Nvidia H100 GPU和640 GB的GPU内存,以及2个最新的英特尔至强处理器的56核版本,全部与Nvidia NVLink进行互连,可以提供32 petaFLOPS的性能。
黄仁勋在最近一次财报电话会议上宣布,将以Nvidia“DGX Cloud”的方式直接通过云服务提供商提供这种DGX系统。他表示,“NVIDIA DGX是一台AI超级计算机,也是正在全球建设的AI工厂蓝图。构建AI超级计算机既困难又耗时,今天我们宣布推出Nvidia DGX Cloud,是拥有自己的DGX AI超级计算机最快、也是最简单的方法。您只需打开自己的浏览器即可获得。目前,Oracle Cloud infrastructure和微软Azure已经提供Nvidia DGX云,未来谷歌GCP等公司也将提供支持。”
这个强大的系统为AI研究人员和那些希望利用前沿AI技术的商业实体降低了准入门槛。在推出DGX Cloud之前,IT管理员被迫通过公有云产品组装他们的AI基础设施。DGX云通过这个过程消除了一定的复杂性。
Nvidia DGX提供了多种选择,其中包括独立的NVIDIA DGX A100和H100系统、NVIDIA DGX BasePOD参考架构和NVIDIA DGX SuperPOD一站式人工智能数据中心解决方案。目前DGX云是通过云服务提供商提供的DGX H100。
分析师观点
Nvidia数据中心业务的表现让游戏业务黯然失色。在过去的二十年里,Nvidia战略性地投资于支持企业AI。利用Nvidia提供的工具为一系列支持AI的应用构建系统是非常简单的,而且这在工业边缘是真实的,你可以想象得到,它在最高性能的深度学习集群中同样奏效。
Nvidia的优势在于硬件工程和软件支持。Nvidia种类繁多的云原生软件让这一切变得简单,而高性能是通过Nvidia硬件体现的。
通过公有云合作伙伴直接向用户提供DGX是很有意义的,这些合作伙伴已经为Nvidia的财报带来的好处。这种模式为高性能AI带来了类似云的效率。云服务提供商吸收资本支出,同时将其分摊到广泛的客户群中,而最终客户则获得了负担得起的云接入。
在过去六个月中,大型语言模型带来的变化令人难以置信。将其与AI世界中其他一切结合在一起,可能带来无限的可能性,只有通过Nvidia的不断创新才能实现的可能性。
好文章,需要你的鼓励
皇家芭蕾舞团和歌剧院技术交付主管 Keith Nolan 分享了 IT 创新如何支持艺术表演。从降低成本到改善观众体验,IT 在幕后发挥着关键作用。疫情期间的数字化转型、云计算的应用以及流媒体技术的发展,都为艺术表演带来新的可能性。Nolan 强调,通过创新技术节省开支,可以将更多资金投入到世界级的演出中。
本文探讨了7种可能严重影响企业运营的技术债务类型,包括数据债务、数据管理债务、开源依赖债务、AI债务、架构债务、AI实施中的安全债务以及文化债务。文章分析了这些债务的成因、潜在风险,并为CIO提供了应对建议,以帮助企业避免或减少技术债务对业务转型的阻碍。
Nvidia 将 8 年前的愚人节玩笑变成了现实,推出了实验版 Project G-Assist AI 助手。该助手旨在提升玩家和创作者的 PC 体验,可通过语音或文本命令优化游戏和系统性能、测量帧率等。这标志着 AI 助手在特定领域应用的重要进展,也反映了配置游戏 PC 的复杂性。未来可能会有更多类似的 AI 助手出现。
Plural 开发了一个创新平台,可将企业的所有 Kubernetes 集群整合到单一仪表板中。该平台采用 AI 技术优化集群效率,支持多云环境,并通过 GitOps 模式运行。平台能将运维开销降低约 90%,帮助企业更高效地管理和部署 Kubernetes 集群,使开发团队能够专注于更有价值的工作。