仅在发布几周后,NVIDIA A100 GPU已登录Google Compute Engine。
NVIDIA A100 Tensor Core GPU现已登录Google Cloud。
自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。
Google今日发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google 成为全球首个提供A100——这一最新GPU的云服务商。
A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,极大的提升了工作负载运行速度,赋能AI革命。
Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”
在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。
基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。
云端A100以突破性的性能为各种规模的工作负载提速
全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。
针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。
针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。
Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。
好文章,需要你的鼓励
Hugging Face推出开源工具Yourbench,允许企业创建自定义基准来评估AI模型在其内部数据上的表现。这一工具通过复制大规模多任务语言理解基准的子集,以极低成本实现了对模型性能的精确评估。Yourbench的出现为企业提供了更贴合实际需求的AI模型评估方法,有望改善模型评估的方式。
Cognition AI 推出 Devin 2.0,这是其 AI 驱动的软件开发平台的更新版本。新版本引入了多项功能,旨在提升开发者与自主代理之间的协作效率。最引人注目的是,Devin 2.0 的起价从每月 500 美元大幅下调至 20 美元,使其更易于普及。新功能包括并行 Devin、交互式规划、代码库搜索等,有望提升开发效率并增强用户控制。
安迪·卡拉布蒂斯是一位杰出的CIO,她的职业生涯横跨多个行业和地区,经历了多次变革时刻。她在福特和通用汽车锻炼了领导力和技术专长,后来在戴尔、拜奥根和国家电网等公司担任高管,推动战略创新。本文总结了她对IT领导者核心技能的见解,包括战略沟通、情商、协作、远见卓识、变革管理和敏捷性等,对当今IT领导者具有重要参考价值。
边缘 AI 计算将使人形机器人、智能设备和自动驾驶等应用从数据中心和云端服务器解放出来,转移到制造车间、手术室和城市中心等场景。它能实现低延迟和自主决策,使 AI 无处不在,推动工业设施全面自动化,彻底改变商业和生活方式。边缘 AI 正在快速发展,各大科技公司纷纷推出相关硬件和软件平台,未来将为各行各业带来巨大变革。