Nvidia今天宣布在谷歌公有云平台上提供最新的GPU A100。
Nvidia A100 Tensor Core GPU现在是作为Alpha版本提供的,是Google Compute Engine服务中最新Accelerator-Optimized VM(A2)实例家族的一个组成部分。
Nvidia称,这款芯片采用了Nvidia下一代Ampere架构,是Nvidia迄今为止最强大的GPU。A100主要针对人工智能训练和推理工作负载设计,与Volta GPU相比性能提高了20倍。
A100 Ampere芯片也是Nvidia尺寸最大的芯片,由540亿个晶体管组成,采用了Nvidia第三代Tensor核心,具有针对稀疏矩阵运算的加速功能,这一点特别适用于AI计算。
Google Cloud产品管理总监Manish Sainani表示:“Google Cloud客户经常提出,希望我们提供最新的硬件和软件服务,帮助他们推动人工智能和科学计算工作负载的创新。和此前采用Nvidia T4 GPU一样,我们很高兴通过最新的A2 VM系列成为第一个销售Nvidia A100 GPU的主流云提供商。我们也很高兴看到客户能够利用这些新能力。”
Nvidia表示,除了AI工作负载外,A100芯片还支持数据分析、科学计算、基因组学、边缘视频分析和5G服务等。
A100芯片还可以将自身划分为多个实例,一次同时执行多个任务,以及通过Nvidia NVLink互连技术连接多个A100芯片,以训练大型AI工作负载。
谷歌正在利用这个优势,新的Accelerator-Optimized VM(A2)实例家族包括一个a2-megagpu-16g选件,该选件允许客户一次使用多达16个A100 GPU,总共640 GB GPU内存和1.3 TB系统内存,每秒总带宽达到9.6 TB。
Nvidia表示,A100 GPU还提供较小型的配置,适用于运行要求较低的工作负载。Nvidia表示,不久的将来其他Google Cloud服务也将采用 A100 GPU,包括Google Kubernetes Engine和Google Cloud AI Platform。
Constellation Research分析师Holger Mueller表示,Nvidia在Google Cloud上提供A100 GPU对用户来说是一个好消息,因为这样用户就可以轻松地通过公有云使用Nvidia最新的芯片了。
Mueller说:“这对于Nvidia也是一次胜利,因为这样Nvidia就可以把最新的芯片转移到本地部署环境之外。对于Google来说,也是一次胜利,因为Google成为了支持Nvidia最新平台的首家大型云服务提供商。现在,就看数据分析师、开发人员和数据科学家了,他们可以使用这款新的芯片为他们下一代应用的AI组件提供支持。”
好文章,需要你的鼓励
帕洛阿尔托创业公司Catio在VentureBeat Transform 2025大会上获得"最酷技术"奖。该公司成立于2023年,已筹集700万美元资金。Catio推出的AI技术架构副驾驶将架构重新定义为可编码、可内省和智能演进的活体系统。通过结合实时架构地图和多智能体AI组织,帮助工程团队从被动决策转向持续主动的架构优化,为CTO和架构师提供数据驱动的架构决策支持。
这项由中国移动和Zero Gravity实验室合作的研究成功突破了大模型训练的网络带宽限制,首次实现在1Gbps网络下训练1070亿参数模型,速度比传统方法快357倍。通过流水线并行、延迟重叠机制和自适应压缩算法的创新组合,为分布式AI训练开辟了新可能。
谷歌在ISTE教育技术大会上发布超过30款AI教育工具,包括专为教育打造的Gemini应用、协作视频制作工具Google Vids扩展访问权限等。教师可利用AI技术进行头脑风暴、生成教案、个性化学习内容,还能创建定制版Gemini"助手"为学生提供额外支持。新工具还包括AI阅读伙伴、学习进度追踪、Chrome设备管理等功能,旨在通过"负责任的AI"推动个性化学习体验。
这项研究介绍了MADrive系统,一种革命性的自动驾驶场景模拟技术。该系统通过一个包含7万辆真实车辆的数据库,能够将普通驾驶录像转换成各种危险场景的高逼真度模拟,为自动驾驶系统提供安全的训练环境。实验表明,相比传统方法,MADrive在多个关键性能指标上都有显著提升,为解决自动驾驶训练数据稀缺问题提供了新思路。