GPU制造商和AI提供商Nvidia近日宣布推出一系列新的生成式AI产品,旨在加速大型语言模型和其他先进AI应用的开发。
Nvidia此次在SIGGRAPH 2023大会上宣布与机器学习和AI工具开发公司Hugging Face建立新的合作伙伴关系,让开发人员可以在Nvidia DGX Cloud超级计算基础设施上部署和使用他们的生成式AI模型,以扩展工作负载。开发人员还将能够访问新的Nvidia AI Workbench,从而可以打包工作并在PC、工作站、云端以及Nvidia AI Enterprise 4.0等任何地方使用它。
Hugging Face和DGX Cloud的结合将让开发人员能够快速训练大型语言模型,这些模型是使用自己的业务数据定制的,用于特定行业的知识和应用,例如智能聊天机器人、搜索和摘要等用途。大型语言模型利用这样的超级计算能力就可以在强大的基础设施上进行培训和微调。
Nvidia公司创始人、首席执行官黄仁勋表示:“研究人员和开发人员是生成式AI核心,这正在改变每个行业。Hugging Face和Nvidia正在将全球最大的人工智能社区与全球领先的云端Nvidia AI计算平台连接起来。”
Hugging Face的平台支持超过15000个组织,构成的社区共享其用户构建、微调和部署的超过25万个AI模型和超过5万个数据集。
在此次合作中,Hugging Face将提供一项名为“Training Cluster as a Service”的全新服务,该服务将使用自己的平台和Nvidia DGX Cloud基础设施为企业客户简化全新自定义生成式AI模型的创建和定制,只需单击一下即可。
Nvidia DGX Cloud则由配备了8个H100或者A100 80 GB Tensor Core GPU的实例提供支持,每个节点总共有640GB GPU内存,从而提供了极高的性能,可用于训练和微调大量AI工作负载。
Nvidia AI Workbench:开发人员的工作空间
Nvidia AI Workbench是为开发人员提供的统一工作空间,让他们能够在需要使用的地方快速创建、测试和自定义他们预训练的生成式AI模型,这意味着他们可以使用他们自己的个人计算机、工作站、数据中心、公有云或者Nvidia DGX云端的虚拟机。
开发人员使用AI Workbench可以加载和自定义来自任何主流存储库(例如Hugging Face、GitHub和Nvidia NGC)的模型。
Nvidia企业计算副总裁Manuvir Das表示:“世界各地的企业都在寻找合适的基础设施并构建生成式AI模型和应用。Nvidia AI Workbench为跨组织团队提供了一条简化的路径来创建基于AI的应用,这些应用在现代商业中正变得越来越至关重要。”
相同的界面让开发人员可以打包他们的项目并将其跨不同的实例进行移动,他们可以在自己的PC上处理项目,在有必要的情况下将其移动到云端,而Workbench让打包过程变得更简单了,只需将其打包、移动并解压到云端即可继续开发。
Workbench AI还为开发人员提供了一整套生成式AI工具,包括企业级模型、软件开发套件、来自开源存储的库以及Nvidia AI平台,所有这一切都在统一的开发人员体验中。
Nvidia表示,许多AI基础设施提供商已经开始采用AI Workbench,包括戴尔、HPE、Lambda、联想以及Supermicro。
全新Nvidia AI Enterprise 4.0将先进AI引入生产
现在,企业借助Nvidia AI Enterprise 4.0可以获得采用生成式AI所需的工具,并构建将其连接到大规模生产应用所需的安全性和API。
新发布的AI Enterprise版本包括了云原生框架Nvidia NeMo,用于在完全托管的企业系统中构建、培训和部署大型语言模型,以创建生成式AI应用。那些希望扩展和优化AI部署的企业客户,则可以使用Triton管理服务实现自动化,该服务将自动在Kubernetes中部署多个推理服务器,并进行大规模模型编排。
Nvidia还通过Base Command Manager Essentials软件提供了集群管理功能,最大限度上提高不同数据中心的AI服务器性能,还可以管理跨不同云系统(包括多云和混合云)的AI模型使用情况。
Nvidia AI Enterprise 4.0发布之后,客户可以在合作伙伴的应用市场(包括Google Cloud)中找到。
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究提出了CURE框架,通过强化学习让大语言模型同时学习编写代码和生成单元测试两种能力,无需使用标准代码作为监督。团队开发的ReasonFlux-Coder模型在仅用4.5K编程问题训练后,便在多个基准测试中超越了同类模型,代码生成准确率提高5.3%,最佳N选1准确率提高9.0%。该方法不仅提升了模型性能,还提高了推理效率,同时为降低API调用成本和无标签强化学习提供了新思路。
南京大学与字节跳动联合团队开发的MotionSight系统,为多模态大语言模型提供了"动态视觉增强"能力,解决了现有AI系统在理解视频细粒度动作方面的困难。这一零样本方法通过对象中心的视觉聚光灯和动态模糊技术,显著提升了模型对物体动作和摄像机动作的感知能力,在不需要额外训练的情况下实现了业界领先性能。研究团队同时构建了MotionVid-QA数据集,这是首个专注于细粒度视频动作理解的大规模开源数据集,包含4万多个视频片段和近9万个问答对,为未来研究提供了宝贵资源。