Nvidia正在公有云上实现人工智能和机器学习,发布了运行在VMware on AWS Cloud上的“加速GPU服务”。
这项新服务是今天在VMworld 2019大会上宣布推出的,可以轻松地将现有基于vSphere的应用和软件容器迁移到VMware on AWS Cloud上,后者是一种混合云平台,可以在AWS的公有云上运行VMware的软件定义数据中心堆栈。
这些应用一旦被重新部署,就可以通过Nvidia的高性能GPU利用包括高性能计算、机器学习、数据分析和视频处理应用等新技术。
Nvidia认为,人工智能工作负载(如图像和语音识别、财务建模和自然语言处理)最好在是在自己的GPU硬件上完成的,因为与传统的CPU相比,GPU大大加快了训练和推理时间。
这项新服务采用Amazon的EC2裸机实例和Nvidia新的Virtual Compute Server软件,并将这些与Nvidia T4 GPU相结合以加速人工智能工作负载。
Nvidia创始人兼首席执行官黄仁勋表示:“从运营智能再到人工智能,企业依靠GPU加速计算以做出给他们带来直接影响的、快速准确的预测。我们与VMware一起,正在设计最先进、性能最高的GPU加速混合云基础设施,以促进整个企业的创新。”
Nvidia表示,在VMware on AWS Cloud上运行人工智能工作负载的最大好处之一就是他们能够利用Amazon基础设施的“弹性”。这项新服务将使客户能够根据需要扩展人工智能工作负载,根据数据科学家的需求扩大和缩小他们的训练环境。
其他好处包括提高人工智能应用的安全性和可管理性,更不用说还可以提高可移动性。Nvidia表示,客户只需点击一下按钮就可以在VMware on AWS Cloud和本地环境之间迁移应用,无需停机。
市场研究公司Wikibon分析师James Kobielus表示,Nvidia与VMware的合作意味着VMware现在可以为客户提供高性能的人工智能计算基础设施,这是以前无法做到的。
“通过这种合作伙伴关系,VMware客户可以轻松地将在裸机CPU上运行的人工智能工作负载转移到运行在VMware on AWS Cloud上Nvidia最新最快的GPU虚拟化集群,这将使VMware相比其他混合云解决方案提供商(例如IBM和HPE)在运行企业客户最先进人工智能应用方面占据了优势。”
好文章,需要你的鼓励
AWS与AMD联合发布Amazon EC2 M8a实例,搭载第五代AMD EPYC处理器,最高频率4.5GHz。相比M7a实例性能提升30%,性价比提升19%。支持最高192个vCPU和768GB内存,网络带宽达75Gbps,EBS带宽60Gbps。适用于Web托管、微服务架构、数据库等通用工作负载,已在美国俄亥俄、俄勒冈和欧洲西班牙区域上线。
香港中文大学等顶尖院校联合研究发现,当前最先进的AI视频生成技术已能制作出连顶级检测系统都无法识别的假视频。研究团队开发了Video Reality Test平台,测试结果显示最强生成模型Veo3.1-Fast的假视频仅有12.54%被识别,而最强检测系统Gemini 2.5-Pro准确率仅56%,远低于人类专家的81.25%。研究还发现检测系统过度依赖水印等表面特征,音频信息能提升检测准确性,但技术发展已对信息真实性判断带来严峻挑战。
IBM发布了适用于SAP的IBM咨询应用管理套件,利用生成式和代理AI简化并加速现代化进程。SAP传统ECC系统支持将于2027年结束,但目前仅45%的组织已迁移到新的S/4HANA系统。IBM的工具可创建符合客户标准的特定代码更改,提供主动监控和影响分析。然而分析师指出,迁移工具未能解决核心问题:价值创造,因为客户需要处理多年积累的ECC系统定制化技术债务。
Google DeepMind团队提出了革命性的"扩散预览"模式,通过ConsistencySolver技术实现AI图像生成的"预览+精修"工作流程。该技术能在5-10步内生成高质量预览图像,与传统40步完整生成保持高度一致性,用户体验测试显示总体时间节省近50%,大大提高了创作效率和创意探索的自由度。