Nvidia近日宣布对Nvidia AI Enterprise软件套件进行重大更新,2.1版新增支持企业可用于运行人工智能和机器学习工作负载的关键工具和框架。
去年8月Nvidia推出的Nvidia AI Enterprise是一个端到端的AI软件套件,捆绑了各种人工智能和机器学习工具,并且这些工具已经过优化,可以在Nvidia的GPU和其他硬件上运行。
Nvidia表示,此次发布的亮点之一是对高级数据科学用例的支持,最新版本的Nvidia Rapids是一套开源软件库和API,用于完全在GPU上执行数据科学管道。Nvidia表示,Rapids能够将AI模型训练的时间从几天缩短到几分钟。该套件的最新版本通过添加新模型、技术和数据处理功能,为数据工作流提供了更大的支持。
Nvidia AI Enterprise 2.1还支持最新版本的Nvidia TAO Toolkit,这是一个低代码和无代码框架,可使用自定义数据微调预训练的人工智能和机器学习模型,以产生更准确的计算机视觉、语音和语言理解模型。TAO Toolkit 22.05版本提供了多项新功能,例如REST API集成、预训练权重导入、TensorBoard集成以及新的预训练模型。
为了在混合云和多云环境中更容易使用AI,Nvidia表示将在现有基于裸机和VMwarevSphere部署的OpenShift支持之外,增加对公有云中运行Red Hat OpenShift的支持。此外,AI Enterprise 2.1还支持新的Microsoft Azure NVads A10 v5系列虚拟机。
Nvidia解释说,这些是任何公有云提供的首批Nvidia虚拟GP实例,可以实现更地成本的“部分GPU共享”。例如,客户可以更灵活地采用不同大小的GPU,从1/6个A10 GPU一直到2个完整的A10 GPU。
最后一项更新和Domino Data Lab有关,Domino Data Lab的MLOps平台现在已经通过了AI Enterprise的认证。Nvidia解释说,通过这项认证,Domino Data Lab将有助于降低部署风险,通过AI Enterprise确保MLOps的可靠性和高性能。Nvidia表示,企业使用这两个平台,可以受益于工作负载编排、自助式基础设施和增强协作,在虚拟化服务器和主流加速服务器上进行具有高成本效益的扩展。
对于有兴趣试用最新版AI Enterprise的企业,Nvidia表示将提供一些新的LaunchPad服务供他们使用。LaunchPad服务可以在私有加速计算环境中提供对AI Enterprise的即时、短期访问,环境中有动手实验室,客户可以使用这些实验室来试用AI Enterprise平台。新实验室环境包括在VMware vSphere with Tanzu上进行图像分类的多节点训练,以及使用Nvidia Triton部署欺诈检测XGBoost模型的机会等等。
好文章,需要你的鼓励
AMD Radeon(TM) RX 9000 系列依托AI 加速为玩家带来极致游戏体验。
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
微软终于将其 AI 助手 Copilot 作为独立应用程序推出 macOS 版本。这款免费应用现已在 Mac App Store 上线,支持多种功能如文本翻译、问题解答、文档生成等。Copilot 采用 OpenAI 的 GPT-4 和 DALL-E 3 等模型,标志着微软在 AI 领域的重要布局。该应用要求 M1 或更新的 Mac 设备,以及 macOS 14 或更高版本。