Nvidia正在公有云上实现人工智能和机器学习,发布了运行在VMware on AWS Cloud上的“加速GPU服务”。
这项新服务是今天在VMworld 2019大会上宣布推出的,可以轻松地将现有基于vSphere的应用和软件容器迁移到VMware on AWS Cloud上,后者是一种混合云平台,可以在AWS的公有云上运行VMware的软件定义数据中心堆栈。
这些应用一旦被重新部署,就可以通过Nvidia的高性能GPU利用包括高性能计算、机器学习、数据分析和视频处理应用等新技术。
Nvidia认为,人工智能工作负载(如图像和语音识别、财务建模和自然语言处理)最好在是在自己的GPU硬件上完成的,因为与传统的CPU相比,GPU大大加快了训练和推理时间。
这项新服务采用Amazon的EC2裸机实例和Nvidia新的Virtual Compute Server软件,并将这些与Nvidia T4 GPU相结合以加速人工智能工作负载。
Nvidia创始人兼首席执行官黄仁勋表示:“从运营智能再到人工智能,企业依靠GPU加速计算以做出给他们带来直接影响的、快速准确的预测。我们与VMware一起,正在设计最先进、性能最高的GPU加速混合云基础设施,以促进整个企业的创新。”
Nvidia表示,在VMware on AWS Cloud上运行人工智能工作负载的最大好处之一就是他们能够利用Amazon基础设施的“弹性”。这项新服务将使客户能够根据需要扩展人工智能工作负载,根据数据科学家的需求扩大和缩小他们的训练环境。
其他好处包括提高人工智能应用的安全性和可管理性,更不用说还可以提高可移动性。Nvidia表示,客户只需点击一下按钮就可以在VMware on AWS Cloud和本地环境之间迁移应用,无需停机。
市场研究公司Wikibon分析师James Kobielus表示,Nvidia与VMware的合作意味着VMware现在可以为客户提供高性能的人工智能计算基础设施,这是以前无法做到的。
“通过这种合作伙伴关系,VMware客户可以轻松地将在裸机CPU上运行的人工智能工作负载转移到运行在VMware on AWS Cloud上Nvidia最新最快的GPU虚拟化集群,这将使VMware相比其他混合云解决方案提供商(例如IBM和HPE)在运行企业客户最先进人工智能应用方面占据了优势。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。