Nvidia今天宣布在谷歌公有云平台上提供最新的GPU A100。
Nvidia A100 Tensor Core GPU现在是作为Alpha版本提供的,是Google Compute Engine服务中最新Accelerator-Optimized VM(A2)实例家族的一个组成部分。
Nvidia称,这款芯片采用了Nvidia下一代Ampere架构,是Nvidia迄今为止最强大的GPU。A100主要针对人工智能训练和推理工作负载设计,与Volta GPU相比性能提高了20倍。
A100 Ampere芯片也是Nvidia尺寸最大的芯片,由540亿个晶体管组成,采用了Nvidia第三代Tensor核心,具有针对稀疏矩阵运算的加速功能,这一点特别适用于AI计算。
Google Cloud产品管理总监Manish Sainani表示:“Google Cloud客户经常提出,希望我们提供最新的硬件和软件服务,帮助他们推动人工智能和科学计算工作负载的创新。和此前采用Nvidia T4 GPU一样,我们很高兴通过最新的A2 VM系列成为第一个销售Nvidia A100 GPU的主流云提供商。我们也很高兴看到客户能够利用这些新能力。”
Nvidia表示,除了AI工作负载外,A100芯片还支持数据分析、科学计算、基因组学、边缘视频分析和5G服务等。
A100芯片还可以将自身划分为多个实例,一次同时执行多个任务,以及通过Nvidia NVLink互连技术连接多个A100芯片,以训练大型AI工作负载。
谷歌正在利用这个优势,新的Accelerator-Optimized VM(A2)实例家族包括一个a2-megagpu-16g选件,该选件允许客户一次使用多达16个A100 GPU,总共640 GB GPU内存和1.3 TB系统内存,每秒总带宽达到9.6 TB。
Nvidia表示,A100 GPU还提供较小型的配置,适用于运行要求较低的工作负载。Nvidia表示,不久的将来其他Google Cloud服务也将采用 A100 GPU,包括Google Kubernetes Engine和Google Cloud AI Platform。
Constellation Research分析师Holger Mueller表示,Nvidia在Google Cloud上提供A100 GPU对用户来说是一个好消息,因为这样用户就可以轻松地通过公有云使用Nvidia最新的芯片了。
Mueller说:“这对于Nvidia也是一次胜利,因为这样Nvidia就可以把最新的芯片转移到本地部署环境之外。对于Google来说,也是一次胜利,因为Google成为了支持Nvidia最新平台的首家大型云服务提供商。现在,就看数据分析师、开发人员和数据科学家了,他们可以使用这款新的芯片为他们下一代应用的AI组件提供支持。”
好文章,需要你的鼓励
英国宠物慈善机构PDSA数据显示,超过半数宠物主担心无法承担兽医费用。科技公司正通过AI和物联网技术解决这一市场需求。在伦敦兽医展上,多家初创公司展示了创新技术:AI for Pet利用视觉AI分析宠物眼部、皮肤等图像提供健康洞察;Sylvester.ai开发AI模型识别猫咪疼痛表情;VEA整合患者数据自动化诊断。此外,智能项圈等物联网设备可追踪宠物健康症状。这些技术有助于宠物主采取预防措施,降低兽医费用。
蚂蚁集团等机构联合提出IGPO方法,解决多轮AI智能体训练中的奖励稀疏问题。该方法通过信息增益为每个交互轮次提供密集反馈,避免传统方法中的"优势坍塌"现象。在七个数据集上的实验表明,IGPO显著超越现有方法,平均提升4.8分,对小型模型改进尤为显著。该研究为多轮推理AI训练提供了新思路。
北欧国家启动统一人工智能产业计划,旨在通过合作在全球舞台上竞争,获得微软和谷歌支持。10月成立的新北欧AI中心获得350万英镑初始预算,但谷歌和微软是唯一提供资金支持的科技公司,具体金额保密。该中心将开发生成式AI系统并建设应用AI服务的系统。北欧教育部长承诺追加资金开发大型北欧语言生成AI模型。尽管资金有限,但北欧国家希望通过联合力量在AI竞赛中提升地位。
ETH苏黎世大学和Google联合开发的VIST3A技术,通过巧妙拼接视频生成模型和3D重建模型,实现了仅用文字描述就能生成高质量3D场景的突破。该技术采用模型拼接和直接奖励微调两大核心创新,在多个基准测试中显著超越现有方法,为3D内容创作的民主化开辟了新路径,有望推动游戏、教育、设计等领域的变革。