2020年9月29日,VMware和NVIDIA在VMworld 2020上宣布开展大范围合作,共同推出AI端到端企业平台以及搭载NVIDIA DPU(或数据处理单元)的数据中心、云和边缘新架构,为现有以及新一代应用程序提供支持。
通过这一合作,NVIDIA NGC中心上的丰富AI软件集将被集成到VMware vSphere、VMware Cloud Foundation和VMware Tanzu中。这将有助于加速AI的应用,使企业能够扩展现有AI基础设施,统一管理所有应用程序并在各类数据中心、云和边缘的数据驻留处部署AI基础设施。
此外,还单独发布了“Project Monterey”项目。在该项目中,两家公司将为基于SmartNIC技术(包括可编程的NVIDIA BlueField-2)的混合云提供架构。VMware Cloud Foundation和NVIDIA BlueField-2在结合后,将提供专为AI、机器学习、高吞吐量和数据型应用需求而构建的新一代基础设施,还将为所有企业工作负载提供扩展至AI以外的应用加速,并通过能够将关键数据中心服务从CPU转移到SmartNIC和可编程DPU的新架构增加一层安全层。
VMware首席执行官Pat Gelsinger表示:“我们正在与NVIDIA合作,让每家企业都可以使用AI,从而真正实现这项强大技术的民主化。为了支持新一代应用程序需求,我们还一起定义了混合云的新架构。我们将共同帮助所有企业加速使用突破性应用程序,以推动其业务发展。”
NVIDIA创始人兼首席执行官黄仁勋表示:“AI和机器学习已从科研实验室迅速扩展到几乎每个行业和地区的企业数据中心。NVIDIA和VMware将一起帮助客户把每家企业的数据中心改造成加速的AI超级计算机。企业将借助NVIDIA DPU构建安全、可编程、软件定义的数据中心,大幅加速所有企业应用程序。”
加利福尼亚大学旧金山分校(UCSF)智能影像中心是整合VMware和NVIDIA生态系统的机构之一。作为医学成像AI和分析工具开发领域的领导者,该中心采用NVIDIA ClaraTM医疗应用框架支持AI成像,并为加利福尼亚大学旧金山分校社区以及学术和行业合作伙伴提供了探索、创新以及采用AI所需的重要资源,以此改善患者护理。
加利福尼亚大学旧金山分校放射与生物医学影像学系主任Christopher Hess表示:“在大型患者成像研究中,AI可以比人眼更快检测出疾病。通过进一步研究,医生将能够通过这项技术为患者提供最快速、最准确、最安全的诊断和治疗方案。NVIDIA Clara AI应用框架和VMware Cloud Foundation的整合将有助于我们借助通用数据中心基础设施扩展我们的AI工作,开展诸如培训和研究等活动,并帮助支持时间紧迫的急救诊断。”
作为NVIDIA与VMware的首次合作,NVIDIA NGC在VMware vSphere和VMware Cloud Foundation上的整合将简化针对最苛刻工作负载的AI部署和管理。无论是医疗,还是金融服务、零售和制造等行业,在与其企业相同的平台上,都能够借助容器和虚拟机轻松地在混合云中大规模开发和部署AI工作负载。
VMware客户将能够使用现有的基础设施、资源和工具集为数据科学和AI工作负载提速,从而帮助扩大AI和机器学习技术的普及范围。数据科学家、开发人员和研究人员将可以立即访问NGC的各类云原生GPU优化容器、模型和行业特定软件开发套件。目前,来自戴尔、惠普和联想等领先系统制造商的部分经过预测试且内置NVIDIA A100的服务器支持NGC软件。
VMware与NVIDIA此次合作的第二项原因为:随着新一代工作负载复杂性的不断提高,SmartNIC和DPU已成为安全加速各种数据驻留的企业应用程序的关键技术。
VMware和NVIDIA为混合云提供了一种帮助企业发展基础设施、提高运营水平的新架构,并引入了新安全模型,从而使企业将管理程序、网络、安全和存储任务从CPU转移到DPU。这一新架构将把VMware Cloud Foundation运营模型扩展到裸机服务器。
该架构是Vmware于今日VMworld 2020大会上所发布的技术预览—— Project Monterey的基石。通过结合使用NVIDIA BlueField-2 DPU与VMware Cloud Foundation,客户将能够加速多种新一代和通用应用、提供可编程智能并在各类数据中心、边缘和电信云中运行分布式零信任安全模型。
目前,NVIDIA和VMware正在企业AI和加速计算平台领域开展广泛的软件工程合作。希望使用AI并安全加速混合云端应用的企业可以注册参加抢先体验计划。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。