Nvidia近日宣布对Nvidia AI Enterprise软件套件进行重大更新,2.1版新增支持企业可用于运行人工智能和机器学习工作负载的关键工具和框架。
去年8月Nvidia推出的Nvidia AI Enterprise是一个端到端的AI软件套件,捆绑了各种人工智能和机器学习工具,并且这些工具已经过优化,可以在Nvidia的GPU和其他硬件上运行。
Nvidia表示,此次发布的亮点之一是对高级数据科学用例的支持,最新版本的Nvidia Rapids是一套开源软件库和API,用于完全在GPU上执行数据科学管道。Nvidia表示,Rapids能够将AI模型训练的时间从几天缩短到几分钟。该套件的最新版本通过添加新模型、技术和数据处理功能,为数据工作流提供了更大的支持。
Nvidia AI Enterprise 2.1还支持最新版本的Nvidia TAO Toolkit,这是一个低代码和无代码框架,可使用自定义数据微调预训练的人工智能和机器学习模型,以产生更准确的计算机视觉、语音和语言理解模型。TAO Toolkit 22.05版本提供了多项新功能,例如REST API集成、预训练权重导入、TensorBoard集成以及新的预训练模型。
为了在混合云和多云环境中更容易使用AI,Nvidia表示将在现有基于裸机和VMwarevSphere部署的OpenShift支持之外,增加对公有云中运行Red Hat OpenShift的支持。此外,AI Enterprise 2.1还支持新的Microsoft Azure NVads A10 v5系列虚拟机。
Nvidia解释说,这些是任何公有云提供的首批Nvidia虚拟GP实例,可以实现更地成本的“部分GPU共享”。例如,客户可以更灵活地采用不同大小的GPU,从1/6个A10 GPU一直到2个完整的A10 GPU。
最后一项更新和Domino Data Lab有关,Domino Data Lab的MLOps平台现在已经通过了AI Enterprise的认证。Nvidia解释说,通过这项认证,Domino Data Lab将有助于降低部署风险,通过AI Enterprise确保MLOps的可靠性和高性能。Nvidia表示,企业使用这两个平台,可以受益于工作负载编排、自助式基础设施和增强协作,在虚拟化服务器和主流加速服务器上进行具有高成本效益的扩展。
对于有兴趣试用最新版AI Enterprise的企业,Nvidia表示将提供一些新的LaunchPad服务供他们使用。LaunchPad服务可以在私有加速计算环境中提供对AI Enterprise的即时、短期访问,环境中有动手实验室,客户可以使用这些实验室来试用AI Enterprise平台。新实验室环境包括在VMware vSphere with Tanzu上进行图像分类的多节点训练,以及使用Nvidia Triton部署欺诈检测XGBoost模型的机会等等。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。