虚拟化软件巨头VMware今天在VMworld 2020在线大会上表示,将与计算机图形芯片制造商Nvidia合作打造一个面向人工智能工作负载的全新企业平台。
VMware还公布了一个面向云、数据中心和边缘的新架构,运行在Nvidia最新的数据中心内。
Nvidia将把Nvidia GPU Cloud(NGC)AI处理软件与VMware主要的虚拟化平台vSphere进行集成,此外NGC还与VMware Cloud Foundation(用于管理虚拟机和软件容器的混合云平台)和VMware Tanzu(对Kubernetes控制的容器应用进行构建、运行和管理的平台)进行集成。
“我们正在与Nvidia展开合作,将AI带给所有企业;让这项最强大的技术之一实现真正普及,”VMware首席执行官Pat Gelsinger(图右,图左为Nvidia首席执行官黄仁勋)这样表示。
VMware称,这些集成将打造出一个“企业就绪的人工智能平台”,让企业能够运行新的人工智能工作负载并通过一个平台进行管理。VMware还将让企业能够在数据所在的位置部署AI就绪的基础设施,不管数据是在云端、数据中心、还是网络边缘。
Nvidia GPU Cloud是一个针对深度学习和高性能计算的优化软件工具完整目录,这些工具可以充分利用Nvidia GPU的优势。
两家公司表示,将该软件与VMware工具集成后,将让企业更容易在其现有基础设施上部署新的AI工作负载,让数据科学家和开发人员可以访问广泛的云原生GPU优化的容器、AI模型和行业特定的软件开发套件。
这一点很重要,因为Nvidia不仅在硬件方面而且在软件方面都被公认为是AI的行业领导者之一。
Nvidia企业计算业务负责人、产品工程高级副总裁Manuvir Das表示:“很人多认为我们是一家硬件公司,实际上我们也是一家软件公司,Nvidia的生态系统中有超过230万的开发者。”
Das表示,现在企业可以使用Tanzu平台在VMware vSphere和Cloud Foundation上创建使用NGC软件开发的云原生AI应用。同时,无论是使用容器还是虚拟机来托管这些应用,带给开发者的好处是他们拥有一致的体验。
Das说:“vSphere的美妙之处在于,无论你是运行在虚拟机还是Kubernetes上,都可以获得相同的体验。即使没有容器平台,你也可以将应用托管在容器中,方便打包。我们预计,将有很大一部分客户会以这种方式进行部署。”
两家公司还公布了“蒙特雷计划”(Project Monterey),在这项新计划下,两家公司将合作构建混合云架构,该架构基于Nvidia的智能网络接口控制器技术SmartNIC,并结合了Nvidia最新的可编程BlueField-2数据处理单元。
两家公司表示,他们希望将BlueField-2 DPU与VMware Cloud Foundation结合起来以创建下一代架构,该架构能够更好地满足AI、机器学习、高吞吐量和以数据为中心的应用的独特需求。SmartNIC控制器通过将虚拟机管理程序、网络、安全和存储任务从CPU卸载到DPU,从而有助于加速应用工作负载,并提供额外的安全性。”
两家公司表示,在此次合作中,Nvidia的SmartNIC平台及其DPU是加速数据所驻留的应用的关键技术。
VMware高级副总裁、云平台业务总经理Krish Prasad说:“蒙特雷计划重新构想了面向混合云应用的数据中心基础设施。Cloud Foundation用户将能够加速各种下一代应用和通用应用,提供可编程智能性,并跨数据中心、边缘和电信云运行分布式零信任安全模型。”
对企业而言,最大的吸引力在于Nvidia的架构将有助于实现应用性能的大幅提升。Das表示,Nvidia已经重复了大多数VMware利用GPU最大限度减少虚拟化开销的工作,这将有助于使VMware工作负载具有GPU的原始能力,并带来显着的性能改进。
Das说:“例如将AI用于乳腺癌研究,对比在相同环境下使用和不使用GPU的情况,你会看到性能提升了31倍。”
Das说,更加灵活的基础设施还将让客户从中受益。客户利用所谓多实例GPU的技术,将GPU切分成更小的部分,在基础设施中混合搭配,用于数据准备、训练或推理之类的任务。
Constellation Research分析师Holger Mueller认为,当今企业渴望更快速发展并变得更加敏捷,而Nvidia和VMware正致力于满足这一需求。他说,这类伙伴关系为企业加速铺平了道路,因为他们为企业提供了开箱即用的预配置功能,让企业不需要做任何的集成工作。
Mueller说:“此次合作对任何一方来说都是双赢的。VMware可以获得Nvidia备受欢迎的GPU和DPU,Nvidia可以带来自己已经产品化的产品,进入VMware的生态系统,而最重要的是,他们为下一代应用提供了更强大的平台。”
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。