根据麦肯锡预测,生成式 AI 每年可为全球经济带来多达 4.4 万亿美元的增长。简化并提高生成式AI应用的开发、测试和部署效率,成为现阶段企业实实在在的需求。如今,全球各地的企业都在竞相寻找合适的基础设施并构建生成式 AI 模型和应用。
8 月 22 日,NVIDIA 宣布,推出 AI 就绪型服务器,该服务器支持于同日发布的 VMware Private AI Foundation with NVIDIA。双方希望通过此平台能帮助企业使用自有业务数据来定制和部署生成式 AI 应用。
VMware、英伟达珠联璧合 构建私有定制化的生成式AI能力
作为全集成式解决方案,VMware Private AI Foundation with NVIDIA 平台采用 NVIDIA® L40S GPU、NVIDIA BlueField®-3 DPU 和 NVIDIA AI Enterprise 等生成式 AI 基础设施和软件,以及端到端的云原生框架NVIDIA NeMo ,具备能够让企业自定义模型并运行如智能聊天机器人、助手、搜索和摘要等各类生成式 AI 应用的先驱优势。企业可以通过部署平台创建供内部使用的更加安全的私有模型,同时还能将生成式AI作为一项服务提供给用户,并能更加安全地大规模运行推理工作负载。
VMware 首席执行官 Raghu Raghuram 表示:“生成式 AI 与多云可谓珠联璧合。客户的数据无处不在,遍布其数据中心、边缘、云等多处。我们将与 NVIDIA 一同助力企业放心地在数据附近运行生成式 AI 工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”
NVIDIA 创始人兼首席执行官黄仁勋表示:“世界各地的企业都在竞相将生成式 AI 整合到自身业务中。通过与 VMware 扩大合作,我们将能够为金融服务、医疗、制造等领域的数十万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式 AI 的潜力。”
官方资料显示,VMware Private AI Foundation with NVIDIA平台预计能够提供以下方面的优势:
隐私:将通过能够保护数据隐私并确保访问安全的架构,使客户能够在任何数据所在地轻松运行 AI 服务。
选择:从 NVIDIA NeMo™ 到 Llama 2 等,企业在构建和运行其模型的位置上,将拥有广泛的选择空间,包括领先的 OEM 硬件配置以及未来的公有云和服务提供商解决方案。
性能:近期的行业基准测试表明,某些用例在 NVIDIA 加速基础设施上运行的性能与裸机性能相当,甚至超过了裸机性能。
数据中心规模:虚拟化环境中的 GPU 扩展优化使 AI 工作负载能够在单个虚拟机和多个节点上扩展到最多 16 颗 vGPU/GPU,从而加快生成式 AI 模型的微调和部署速度。
更低的成本:将最大程度地利用 GPU、DPU 和 CPU 的所有计算资源以降低总体成本,并创建可在各个团队间高效共享的池化资源环境。
加速存储:VMware vSAN Express Storage Architecture 提供性能经过优化的 NVMe 存储,并支持通过 RDMA 实现 GPUDirect® 存储,从而无需 CPU 即可实现从存储到 GPU 的直接 I/O 传输。
加速网络:vSphere 与 NVIDIA NVSwitch™ 技术之间的深度集成将进一步确保多 GPU 模型的执行不会出现 GPU 间瓶颈问题。
快速部署和价值实现时间:vSphere Deep Learning VM 镜像和镜像库将提供稳定的统包解决方案镜像,该镜像预先安装了各种框架和性能经过优化的库,可实现快速原型开发。
双方进一步表示,VMware和 NVIDIA双方的战略合作伙伴关系,将帮助数十万家使用 VMware 云基础架构的企业做好准备,迎接AI时代的到来。
戴尔、HPE、联想 将推出搭载 NVIDIA L40S 的服务器
业内人士认为,此次发布进一步推动了企业级生成式 AI 部署的庞大生态系统。
英伟达方面透露,戴尔科技、慧与和联想将于年底前推出采用 NVIDIA L40S GPU 和 NVIDIA BlueField 的服务器和 NVIDIA ConnectX®-7 智能网卡的系统,以支持 VMware Private AI Foundation with NVIDIA。
性能上的突破是收到相关企业青睐的原因之一。相较于 NVIDIA A100 GPU,NVIDIA L40S 可将智能聊天机器人、助手、搜索和摘要等生成式 AI 应用中的生成式 AI推理性能提高 1.2 倍。
此外,通过集成 NVIDIA BlueField DPU,可加速、卸载和隔离巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 AI 服务,以进一步提高速度;NVIDIA ConnectX®-7 智能网卡提供先进的硬件卸载和超低延迟,可为数据密集型生成式 AI 工作负载提供同类领先的可扩展性能。
据悉,相关服务器还将采用 NVIDIA AI Enterprise,即 NVIDIA AI 平台的操作系统。
NVIDIA 创始人兼首席执行官黄仁勋表示:“全新的计算时代已经来临,各行各业的企业都在竞相采用生成式 AI。我们正在通过涵盖全球顶尖软件和系统合作伙伴的生态系统,将生成式 AI 带给全球企业。”
VMware 首席执行官 Raghu Raghuram 表示:"生成式 AI 正在大力推动数字化转型进程,企业需要一种全面集成的解决方案,以更加安全地构建应用,从而推动业务发展。通过 VMware、NVIDIA、以及我们服务器制造商合作伙伴的专业知识相结合,企业将能够在确保数据隐私、安全和可控性的前提下开发和部署 AI。
在下游头部厂商的评价中,也不难度看出NVIDIA AI就绪型服务器对于AI应用生态推进。
戴尔科技主席兼首席执行官 Michael Dell 表示:“生成式 AI是创新的‘催化剂’,将助力解决一些全球性的重大挑战。而采用 NVIDIA AI就绪型服务器的戴尔生成式AI解决方案将扮演至关重要的角色,即通过推动生产力水平实现前所未有的提升,并变革工业运营的方式,以加速人类的进程。”
慧与总裁兼首席执行官 Antonio Neri 表示:“生成式 AI 将推动企业生产力规模的全新扩展 —— 从赋能聊天机器人和数字助理,到帮助设计和开发新的解决方案。我们很高兴能继续与 NVIDIA 密切合作,在一系列企业级调优和推理工作负载解决方案中采用 NVIDIA 的 GPU 和软件,这将加速生成式 AI 的部署。”
联想集团主席兼首席执行官杨元庆表示:“企业迫切希望采用生成式 AI 来推动智能化转型。通过与 NVIDIA 和 VMware 合作,联想正在进一步扩大自身在生成式 AI 领域的领先地位,并巩固自身的独特定位,即在客户采用 AI 的旅程中为其提供帮助。”
值得一提的是,在供货方面,NVIDIA官方透露,搭载 L40S GPU 和 BlueField DPU 的 NVIDIA AI 就绪型服务器将于年底前上市,云服务提供商预计将在未来几个月提供实例。
VMware也计划于 2024 年初发布 VMware Private AI Foundation with NVIDIA。
写在最后
自今年生成式AI风靡全球以来,“百模竞技”持续上演。有人断言,“百模竞技”的局面,最终必将“分久必合”。而在这一过程中,谁掌握了私有化定制的能力,谁就具备的AI应用的差异化优势。
可以说,VMware 与NVIDIA 为企业开启生成式AI时代打开了一条快速通道,赋予的私有化部署能力,也将会为企业智慧化转型提供强大的支持,在未来,我们期待看到更多的企业能够通过私有化部署的生成式AI,实现业务的升级和转型。
好文章,需要你的鼓励
AMD CIO的职能角色早已超越典型的CIO职务,他积极支持内部产品开发,一切交付其他部门的方案都要先经过他的体验和评判。
医学生在选择专业时,应当考虑到AI将如何改变医生的岗位形态(以及获得的薪酬待遇)。再结合专业培训所对应的大量时间投入和跨专业的高门槛,这一点就更显得至关重要。
我们拥有大量数据,有很多事情要做,然后出现了一种有趣的技术——生成式AI,给他们所有人带来的影响。这种影响是巨大的,我们在这个领域正在做着惊人的工作。