GPU制造商和AI提供商Nvidia近日宣布推出一系列新的生成式AI产品,旨在加速大型语言模型和其他先进AI应用的开发。
Nvidia此次在SIGGRAPH 2023大会上宣布与机器学习和AI工具开发公司Hugging Face建立新的合作伙伴关系,让开发人员可以在Nvidia DGX Cloud超级计算基础设施上部署和使用他们的生成式AI模型,以扩展工作负载。开发人员还将能够访问新的Nvidia AI Workbench,从而可以打包工作并在PC、工作站、云端以及Nvidia AI Enterprise 4.0等任何地方使用它。
Hugging Face和DGX Cloud的结合将让开发人员能够快速训练大型语言模型,这些模型是使用自己的业务数据定制的,用于特定行业的知识和应用,例如智能聊天机器人、搜索和摘要等用途。大型语言模型利用这样的超级计算能力就可以在强大的基础设施上进行培训和微调。
Nvidia公司创始人、首席执行官黄仁勋表示:“研究人员和开发人员是生成式AI核心,这正在改变每个行业。Hugging Face和Nvidia正在将全球最大的人工智能社区与全球领先的云端Nvidia AI计算平台连接起来。”
Hugging Face的平台支持超过15000个组织,构成的社区共享其用户构建、微调和部署的超过25万个AI模型和超过5万个数据集。
在此次合作中,Hugging Face将提供一项名为“Training Cluster as a Service”的全新服务,该服务将使用自己的平台和Nvidia DGX Cloud基础设施为企业客户简化全新自定义生成式AI模型的创建和定制,只需单击一下即可。
Nvidia DGX Cloud则由配备了8个H100或者A100 80 GB Tensor Core GPU的实例提供支持,每个节点总共有640GB GPU内存,从而提供了极高的性能,可用于训练和微调大量AI工作负载。
Nvidia AI Workbench:开发人员的工作空间
Nvidia AI Workbench是为开发人员提供的统一工作空间,让他们能够在需要使用的地方快速创建、测试和自定义他们预训练的生成式AI模型,这意味着他们可以使用他们自己的个人计算机、工作站、数据中心、公有云或者Nvidia DGX云端的虚拟机。
开发人员使用AI Workbench可以加载和自定义来自任何主流存储库(例如Hugging Face、GitHub和Nvidia NGC)的模型。
Nvidia企业计算副总裁Manuvir Das表示:“世界各地的企业都在寻找合适的基础设施并构建生成式AI模型和应用。Nvidia AI Workbench为跨组织团队提供了一条简化的路径来创建基于AI的应用,这些应用在现代商业中正变得越来越至关重要。”
相同的界面让开发人员可以打包他们的项目并将其跨不同的实例进行移动,他们可以在自己的PC上处理项目,在有必要的情况下将其移动到云端,而Workbench让打包过程变得更简单了,只需将其打包、移动并解压到云端即可继续开发。
Workbench AI还为开发人员提供了一整套生成式AI工具,包括企业级模型、软件开发套件、来自开源存储的库以及Nvidia AI平台,所有这一切都在统一的开发人员体验中。
Nvidia表示,许多AI基础设施提供商已经开始采用AI Workbench,包括戴尔、HPE、Lambda、联想以及Supermicro。
全新Nvidia AI Enterprise 4.0将先进AI引入生产
现在,企业借助Nvidia AI Enterprise 4.0可以获得采用生成式AI所需的工具,并构建将其连接到大规模生产应用所需的安全性和API。
新发布的AI Enterprise版本包括了云原生框架Nvidia NeMo,用于在完全托管的企业系统中构建、培训和部署大型语言模型,以创建生成式AI应用。那些希望扩展和优化AI部署的企业客户,则可以使用Triton管理服务实现自动化,该服务将自动在Kubernetes中部署多个推理服务器,并进行大规模模型编排。
Nvidia还通过Base Command Manager Essentials软件提供了集群管理功能,最大限度上提高不同数据中心的AI服务器性能,还可以管理跨不同云系统(包括多云和混合云)的AI模型使用情况。
Nvidia AI Enterprise 4.0发布之后,客户可以在合作伙伴的应用市场(包括Google Cloud)中找到。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。