仅在发布几周后,NVIDIA A100 GPU已登录Google Compute Engine。
NVIDIA A100 Tensor Core GPU现已登录Google Cloud。
自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。
Google今日发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google 成为全球首个提供A100——这一最新GPU的云服务商。
A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,极大的提升了工作负载运行速度,赋能AI革命。
Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”
在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。
基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。
云端A100以突破性的性能为各种规模的工作负载提速
全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。
针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。
针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。
Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。