NVIDIA 于今日宣布 NVIDIA AI Enterprise 2.1 全面上市。这款最新版本的端到端 AI 和数据分析软件套件经过优化和认证,支持企业在裸机、虚拟环境、容器和云环境中部署和扩展 AI 应用。
发布亮点:新容器、公有云支持
NVIDIA AI Enterprise 2.1 版本使用最新的 NVIDIA RAPIDS 提供先进的数据科学,使用最新发布的 NVIDIA TAO 工具套件进行低代码 AI 模型开发。
为了让企业AI在混合或多云环境中更容易访问,AI Enterprise 2.1 增加了对在公有云中运行的 Red Hat OpenShift 和全新 Microsoft Azure NVads A10 v5 系列的支持。这些通过公有云提供的首批 NVIDIA虚拟 GPU 实例实现了经济的 GPU 共享。
支持最新 AI 框架
NVIDIA AI Enterprise 使用户能够实时了解用于开发与部署的 AI 工具,同时获得 NVIDIA 的企业支持和定期更新。对于依赖早期版本 NVIDIA AI 框架的用户,NVIDIA 将继续提供支持,确保管理基础设施更新的灵活性。
NVIDIA TAO Toolkit 22.05
NVIDIA TAO 工具套件是 NVIDIA TAO 的低代码解决方案。该框架使开发者能够创建自定义生产级模型,以驱动语音和视觉 AI 应用。
最新版本的 TAO 工具套件现在通过 NVIDIA AI Enterprise 获得支持,它加入了许多新的关键功能,包括 REST API 集成、预训练权重导入、TensorBoard 集成以及新的预训练模型。
NVIDIA RAPIDS 22.04
RAPIDS 22.04 版本通过在所有 NVIDIA 数据科学库中添加新的模型、技术和数据处理能力,为数据工作流程提供更多支持。
Red Hat OpenShift 现已支持公有云
集成了多项开发运维功能的业内领先企业级 Kubernetes 平台 Red Hat OpenShift 除了能够进行基于裸机和 VMware vSphere 的部署外,现在还通过了 NVIDIA AI Enterprise 认证并支持公有云。这使 Kubernetes 环境中的标准化 AI 工作流程能够在混合云环境中进行扩展。
Azure NVads A10 v5 支持
NVIDIA A10 Tensor Core GPU 驱动的 Azure NVads A10 v5 系列提供前所未有的 GPU 可扩展性、经济性以及部分 GPU 共享,可实现从六分之一的 A10 GPU 到两个完整 A10 GPU 的灵活 GPU 共享规模。
作为支持平台之一,NVads A10 v5 实例通过了 NVIDIA AI Enterprise 认证,为深度学习推理提供优化的性能,最大限度地提高了云端大规模部署的效用和成本效率。
Domino Data Lab Enterprise MLOps 平台认证
NVIDIA AI 加速合作伙伴 Domino Data Lab 的企业 MLOps 平台现已通过 NVIDIA AI Enterprise 认证。该级别认证降低了部署风险,并确保与 NVIDIA AI 平台的可靠、高性能集成。
通过这一合作,双方将工作负载编排、自助式基础设施、协作等企业 MLOps优势,与主流加速服务器上的虚拟化所带来的成本效益相结合。
尝试 NVIDIA AI Enterprise
NVIDIA LaunchPad 为世界各地的企业机构提供在私有加速计算环境中即时、短期访问 NVIDIA AI Enterprise 软件套件的机会,包括各种操作实验室。
通过新的 NVIDIA LaunchPad 实验室体验在 NVIDIA AI Enterprise 上运行的最新 NVIDIA AI 框架和工具。这些位于 NVIDIA 加速基础设施上的实验室使企业能够加快现代化数据驱动型应用的开发和部署,并在用于部署的同一完整堆栈上快速测试和制作整个 AI 工作流程的原型。
访问 NVIDIA AI Enterprise 2.1 中的新LaunchPad实验室。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。