Nvidia近日宣布对Nvidia AI Enterprise软件套件进行重大更新,2.1版新增支持企业可用于运行人工智能和机器学习工作负载的关键工具和框架。
去年8月Nvidia推出的Nvidia AI Enterprise是一个端到端的AI软件套件,捆绑了各种人工智能和机器学习工具,并且这些工具已经过优化,可以在Nvidia的GPU和其他硬件上运行。
Nvidia表示,此次发布的亮点之一是对高级数据科学用例的支持,最新版本的Nvidia Rapids是一套开源软件库和API,用于完全在GPU上执行数据科学管道。Nvidia表示,Rapids能够将AI模型训练的时间从几天缩短到几分钟。该套件的最新版本通过添加新模型、技术和数据处理功能,为数据工作流提供了更大的支持。
Nvidia AI Enterprise 2.1还支持最新版本的Nvidia TAO Toolkit,这是一个低代码和无代码框架,可使用自定义数据微调预训练的人工智能和机器学习模型,以产生更准确的计算机视觉、语音和语言理解模型。TAO Toolkit 22.05版本提供了多项新功能,例如REST API集成、预训练权重导入、TensorBoard集成以及新的预训练模型。
为了在混合云和多云环境中更容易使用AI,Nvidia表示将在现有基于裸机和VMwarevSphere部署的OpenShift支持之外,增加对公有云中运行Red Hat OpenShift的支持。此外,AI Enterprise 2.1还支持新的Microsoft Azure NVads A10 v5系列虚拟机。
Nvidia解释说,这些是任何公有云提供的首批Nvidia虚拟GP实例,可以实现更地成本的“部分GPU共享”。例如,客户可以更灵活地采用不同大小的GPU,从1/6个A10 GPU一直到2个完整的A10 GPU。
最后一项更新和Domino Data Lab有关,Domino Data Lab的MLOps平台现在已经通过了AI Enterprise的认证。Nvidia解释说,通过这项认证,Domino Data Lab将有助于降低部署风险,通过AI Enterprise确保MLOps的可靠性和高性能。Nvidia表示,企业使用这两个平台,可以受益于工作负载编排、自助式基础设施和增强协作,在虚拟化服务器和主流加速服务器上进行具有高成本效益的扩展。
对于有兴趣试用最新版AI Enterprise的企业,Nvidia表示将提供一些新的LaunchPad服务供他们使用。LaunchPad服务可以在私有加速计算环境中提供对AI Enterprise的即时、短期访问,环境中有动手实验室,客户可以使用这些实验室来试用AI Enterprise平台。新实验室环境包括在VMware vSphere with Tanzu上进行图像分类的多节点训练,以及使用Nvidia Triton部署欺诈检测XGBoost模型的机会等等。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。