如今AI应用无处不在,企业运行的AI工作负载不断增加,而这需要一个坚实的AI基础设施进行支撑。企业纷纷不断升级数据中心为AI应用和数据科学提供支持,因为企业现在的IT架构已经全面转向虚拟化环境,所以如何基于已有架构更好地赋能AI应用成为企业的最大诉求。近日,NVIDIA与VMware使用NVIDIA AI Enterprise软件套件对vSphere更新—— VMware vSphere 7 Update 2进行了AI应用优化,满足了企业在现有虚拟化环境中运行AI工作负载的需求。
NVIDIA与VMware的联合之举对于使用vSphere实现计算虚拟化的企业而言意义重大,因为这一组合为他们的大量加速CUDA应用、AI框架、模型和SDK实现了扩展性、多节点性能和兼容性。通过此次业内首创的合作,AI研究人员、数据科学家和开发者获得了成功交付AI项目所需的软件,而IT专业人员能够使用他们最熟悉的大规模数据中心管理工具为AI提供完备的支持。
何为NVIDIA AI Enterprise?
AI基础设施涉及软硬件众多资源的调度管理,企业亟需一个开箱即用的解决方案来实现AI工作负载的快速部署与实施。众所周知,NVIDIA一直在打造一个全面的AI产品组合,这除了硬件产品,也包括众多的软件产品。NVIDIA AI Enterprise是一套完整齐全的端到端企业级AI工具和框架,为在混合云中运行的各种加速CUDA应用、AI框架、预训练模型和软件开发工具包提供兼容性,科学家和AI研究人员可以轻松访问NVIDIA领先的AI工具,推动高级诊断、智能工厂、欺诈检测等项目的AI发展。
现在AI不仅仅只停留在研究阶段,而是已经被应用于真实业务中解决实际问题。大规模部署AI工作负载的各企业正在综合运用本地数据中心和云端,而NVIDIA AI Enterprise案解决了部署单个AI应用的复杂性问题,以及由于必须手动配置和管理各种不兼容的应用和基础设施软件而可能导致的潜在故障。
尽管许多公司都在数据中心中部署了GPU,但是其AI训练和推理等GPU加速工作负载通常仍在裸机上运行。这些GPU服务器通常是独立的,需要进行单独管理,这使得其利用率和灵活性受到了限制。
为了大幅简化各种不同AI工作负载的开发和部署,NVIDIA与VMware联手合作开发了AI就绪型企业级平台,双方使用NVIDIA AI Enterprise在VMware vSphere上实现了AI工作负载的虚拟化。通过它们,企业可以在VMware Cloud Foundation上运行的虚拟化数据中心中快速部署、管理和扩展AI工作负载。
VMware云平台事业部营销副总裁Lee Caswell表示,每家企业都在探索如何通过实现基础设施的现代化来满足AI应用需求。借助NVIDIA AI Enterprise和vSphere 7 Update 2,VMware客户现在能够在其虚拟化数据中心中快速应用AI,并为他们的现代化应用程序轻松部署经认证的AI就绪型基础设施。
当NVIDIA AI Enterprise遇到VMware vSphere
经NVIDIA优化、认证并支持用于VMware vSphere的NVIDIA AI Enterprise套件,使IT部门能够轻松地大规模部署虚拟化AI。
凭借在vSphere上运行的NVIDIA AI Enterprise,企业可以避免难以管理和不安全的AI专用系统孤岛。同时,还可以降低部署Shadow AI(即数据科学家和机器学习工程师在IT生态系统之外采购资源)的风险。IT部门可以管理可用性、优化资源分配,并在本地和混合云中运行的AI工作负载保障其宝贵的IP和客户数据的安全。
如果关注NVIDIA的话,我们知道前一段时间,NVIDIA公布了通过NVIDIA认证系统测试的全球首批加速服务器,获得NVIDIA认证系统认证的服务器包括戴尔科技、新华三、慧与、联想、浪潮和超微等服务器。
为了支持NVIDIA Enterprise AI中的应用,VMware vSphere 7 Update 2基于NVIDIA A100 Tensor Core GPU,并现已通过NVIDIA认证系统的认证。在获得NVIDIA许可证后,AI Enterprise for vSphere可在NVIDIA认证系统上得到支持。AI应用能够像传统企业工作负载一样,在通用基础设施上通过VMware vCenter等数据中心管理工具轻松获得支持。
NVIDIA副总裁兼企业及边缘计算总经理Justin Boitano表示,通常企业都在裸金属服务器上运行AI。但是NVIDIA AI Enterprise使虚拟工作负载能够在vSphere上以接近裸金属服务器的性能运行,提供可扩展、多节点AI应用性能,并通过NVIDIA A100 GPU在AI和数据科学领域获得突破性性能。现在,AI工作负载经过优化后可以扩展到多个节点,即便是具有完整GPU虚拟化的大型深度学习训练模型也可以在VMware Cloud Foundation上运行。
NVIDIA AI Enterprise使企业能够将AI模型的开发时间从80周缩短到8周。现在,企业能够在VMware vSphere上部署和管理高级AI应用,并且像在裸机上一样获得可扩展的、可保证的NVIDIA加速计算性能。
AI工作负载规模不一,对数据的要求也不尽相同。训练一个AI模型需要在多个节点的多个GPU上扩展性能。在部署中的模型上运行推理所需的计算资源一般较少,并且可能不需要用到整个GPU的性能。NVIDIA与VMware一起将vSphere打造成唯一一款通过NVIDIA多实例 GPU(MIG)技术为实时迁移提供虚拟机监视器支持的计算虚拟化软件。凭借MIG技术,每个A100 GPU可以在硬件层面被分割成多至7个实例,从而最大限度地提高各种规模工作负载的效率。
此外,部分NVIDIA ConnectX网卡现已通过VMware vSAN over RDMA(远程直接内存访问)认证。这项技术可卸载CPU通信任务,从而提升应用性能并提高基础设施的投资回报。
NVIDIA AI Enterprise以永久许可证的方式提供,每个CPU插槽的价格为3595美元。每个NVIDIA AI Enterprise企业级业务标准支持级别的许可证每年费用为899美元。计划升级到VMware vSphere 7 Update 2的客户可以申请NVIDIA AI Enterprise的早期试用。
目前联合健康集团旗下的Optum Technology已经在使用NVIDIA AI Enterprise for vSphere,高效地部署企业级AI。
结语
VMware vSphere在现代IT基础设施中具有举足轻重的地位,而NVIDIA在AI基础设施方面一直有了广泛的布局。NVIDIA与VMware的强强联手让现代基础设施能够更好地承载AI工作负载,这对于双方的客户而言是乐见其成的。相信通过双方的合作,企业在AI落地方面的步伐将会越迈越大。
好文章,需要你的鼓励
随着AI的使用、创新和监管混乱超过认可的标准,IT领导者只能开发内部方法来减轻AI风险,依靠框架、工具和他们的同事来正确使用AI。
几年前,当澳大利亚红十字会(Australian Red Cross)这个社区服务慈善机构开始进行数字化转型的时候,发现有很多不同的系统无法协同工作。如今,经过数据梳理和发挥作用,可以满足不断变化的需求。
在此次活动中,IBM展示了最先进的IBM Quantum Heron计算机是如何以比以前更高的精度和速度执行复杂的量子算法,同时为进行高级分子模拟的新方法铺平了道路。
想象一下,一个人工智能系统不仅能阅读文本或识别图像,还能够同时读、写、看、听和创造。这其实就是多模态人工智能的精髓。这些先进的多模态人工智能系统可以同时处理和整合多种形式的数据,包括文本、图像、音频甚至视频。这就像是赋予了人工智能一整套的感官。