Nvidia今天宣布在谷歌公有云平台上提供最新的GPU A100。
Nvidia A100 Tensor Core GPU现在是作为Alpha版本提供的,是Google Compute Engine服务中最新Accelerator-Optimized VM(A2)实例家族的一个组成部分。
Nvidia称,这款芯片采用了Nvidia下一代Ampere架构,是Nvidia迄今为止最强大的GPU。A100主要针对人工智能训练和推理工作负载设计,与Volta GPU相比性能提高了20倍。
A100 Ampere芯片也是Nvidia尺寸最大的芯片,由540亿个晶体管组成,采用了Nvidia第三代Tensor核心,具有针对稀疏矩阵运算的加速功能,这一点特别适用于AI计算。
Google Cloud产品管理总监Manish Sainani表示:“Google Cloud客户经常提出,希望我们提供最新的硬件和软件服务,帮助他们推动人工智能和科学计算工作负载的创新。和此前采用Nvidia T4 GPU一样,我们很高兴通过最新的A2 VM系列成为第一个销售Nvidia A100 GPU的主流云提供商。我们也很高兴看到客户能够利用这些新能力。”
Nvidia表示,除了AI工作负载外,A100芯片还支持数据分析、科学计算、基因组学、边缘视频分析和5G服务等。
A100芯片还可以将自身划分为多个实例,一次同时执行多个任务,以及通过Nvidia NVLink互连技术连接多个A100芯片,以训练大型AI工作负载。
谷歌正在利用这个优势,新的Accelerator-Optimized VM(A2)实例家族包括一个a2-megagpu-16g选件,该选件允许客户一次使用多达16个A100 GPU,总共640 GB GPU内存和1.3 TB系统内存,每秒总带宽达到9.6 TB。
Nvidia表示,A100 GPU还提供较小型的配置,适用于运行要求较低的工作负载。Nvidia表示,不久的将来其他Google Cloud服务也将采用 A100 GPU,包括Google Kubernetes Engine和Google Cloud AI Platform。
Constellation Research分析师Holger Mueller表示,Nvidia在Google Cloud上提供A100 GPU对用户来说是一个好消息,因为这样用户就可以轻松地通过公有云使用Nvidia最新的芯片了。
Mueller说:“这对于Nvidia也是一次胜利,因为这样Nvidia就可以把最新的芯片转移到本地部署环境之外。对于Google来说,也是一次胜利,因为Google成为了支持Nvidia最新平台的首家大型云服务提供商。现在,就看数据分析师、开发人员和数据科学家了,他们可以使用这款新的芯片为他们下一代应用的AI组件提供支持。”
好文章,需要你的鼓励
印度理工学院研究团队从大脑神经科学的戴尔定律出发,开发了基于几何布朗运动的全新AI图像生成技术。该方法使用乘性更新规则替代传统加性方法,使AI训练过程更符合生物学习原理,权重分布呈现对数正态特征。研究团队创建了乘性分数匹配理论框架,在标准数据集上验证了方法的有效性,为生物学启发的AI技术发展开辟了新方向。
英伟达和诺基亚宣布战略合作,将英伟达AI驱动的无线接入网产品集成到诺基亚RAN产品组合中,助力运营商在英伟达平台上部署AI原生5G Advanced和6G网络。双方将推出AI-RAN系统,提升网络性能和效率,为生成式AI和智能体AI应用提供无缝体验。英伟达将投资10亿美元并推出6G就绪的ARC-Pro计算平台,试验预计2026年开始。
Sony AI开发出SoundReactor框架,首次实现逐帧在线视频转音频生成,无需预知未来画面即可实时生成高质量立体声音效。该技术采用因果解码器和扩散头设计,在游戏视频测试中表现出色,延迟仅26.3毫秒,为实时内容创作、游戏世界生成和互动应用开辟新可能。