作者:Google云计算引擎产品经理Chris Kleban和Ari Liberman
今天,我们将一次性宣布多条与云GPU相关的消息。首先,Google云端平台(GCP)的性能将随着NVIDIA P100 GPU测试版的公开发布获得进一步提升。第二,Google计算引擎现已普遍采用NVIDIA K80 GPU。第三,我们很高兴地宣布K80和P100 GPU均将推出阶梯使用折扣。
云GPU可以加快工作负载处理速度,包括机器学习训练和推理、地球物理数据处理、模拟、地震分析、分子建模、基因组学及更多高性能计算用例。
NVIDIA Tesla P100是前沿GPU技术。基于Pascal GPU架构,您可以通过减少实例来增加吞吐量,同时节省资金。与K80相比,P100 GPU可以让工作负载实现10倍提速。
与传统解决方案相比,云GPU在灵活性、性能和成本节约三方面做到了优化结合:
在今天的公告发布后,您已可以在全球四个地区部署NVIDIA Tesla P100和K80 GPU。现在,我们的所有GPU都支持阶梯使用折扣:在您使用我们的GPU运行持续的工作负载时,虚拟机的价格会自动降低(折扣最高30%)。享受这些折扣无需绑定服务商也无需预付最低费用保证金。
自推出GPU以来,我们已经看到用户从GPU提供的额外计算性能中获益。得到GPU加速的工作负载包括基因组学、计算金融,以及机器学习模型训练和推理等。我们的客户Shazam是在GCP上采用GPU的首批用户之一,他们采用GPU来为音乐识别服务提供支持。
“对于某些任务而言,用NVIDIA GPU代替传统CPU能获得成本效益和性能的提升。GPU与Shazam核心音乐识别工作负载的相性很好,我们由此将用户录制的音频片段与我们收录了4000多万首歌曲的目录相匹配。我们通过拍摄每首歌曲的音频签名,将其编译成自定义数据库格式并将其加载到GPU内存中。每当用户通过Shazams发现歌曲时,我们的算法就会使用GPU搜索该数据库,直到找到匹配项。每天成功匹配的次数超过2000万次。”—Shazam网站可靠性工程负责人
今天发布的云GPU公告让GCP又迈进了一步,由此成为所有硬件加速工作负载的理想选择。在NVIDIA P100 GPU加入后,我们将重点关注帮助您将新的用例带入生活。
好文章,需要你的鼓励
OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。
谷歌 DeepMind 推出的 AlphaEvolve AI 智能体,利用多轮反馈机制优化编程和数学任务,已在数据中心与芯片设计中提效,并重现数学问题的先进解法。
DeepMind 推出的 AI 系统 AlphaEvolve 利用自动评估机制解决数学与科学问题,在数学测试和 Google 数据中心优化中提升效率。虽非颠覆性革新,却能帮助专家腾出精力应对更重要任务。
科技公司 Stability AI 同芯片厂 Arm 合作推出“Stable Audio Open Small”,这是一款基于无版权音库训练、可在智能手机上迅速生成短音频样本的立体声音频 AI 模型,虽仅支持英文提示并存在部分局限,但对研究者和小型企业免费开放。