Google计算引擎采用更快的GPU

今天,我们将一次性宣布多条与云GPU相关的消息。首先,Google云端平台(GCP)的性能将随着NVIDIA P100 GPU测试版的公开发布获得进一步提升。第二,Google计算引擎现已普遍采用NVIDIA K80 GPU。第三,我们很高兴地宣布K80和P100 GPU均将推出阶梯使用折扣。

作者:Google云计算引擎产品经理Chris Kleban和Ari Liberman

今天,我们将一次性宣布多条与云GPU相关的消息。首先,Google云端平台(GCP)的性能将随着NVIDIA P100 GPU测试版的公开发布获得进一步提升。第二,Google计算引擎现已普遍采用NVIDIA K80 GPU。第三,我们很高兴地宣布K80和P100 GPU均将推出阶梯使用折扣。

云GPU可以加快工作负载处理速度,包括机器学习训练和推理、地球物理数据处理、模拟、地震分析、分子建模、基因组学及更多高性能计算用例。

NVIDIA Tesla P100是前沿GPU技术。基于Pascal GPU架构,您可以通过减少实例来增加吞吐量,同时节省资金。与K80相比,P100 GPU可以让工作负载实现10倍提速。

与传统解决方案相比,云GPU在灵活性、性能和成本节约三方面做到了优化结合:

  • 灵活性:Google的自定义虚拟机模型和增量云GPU提供的灵活性超高。您可以根据自己的需求自定义CPU、内存、磁盘和GPU配置。
  • 快速性能:云GPU采用直通模式,能够提供裸机性能。每个虚拟机最多可以连接4个P100或8个K80(我们提供最多4个K80板卡,每个板卡上有2个GPU)。对于那些寻求更高磁盘性能的用户,可选择将最多3TB的本地SSD连接到任何GPU虚拟机。
  • 低成本:使用云GPU,您可以获得与其余GCP资源相同的每分钟计费和阶梯使用折扣。只为您需要的资源付费!
  • 云集成:云GPU的供应范围涵盖所有堆栈级别。对于基础架构、计算引擎和容器引擎(仅在Alpha群集上受支持),您可以使用虚拟机或容器运行GPU工作负载。对于机器学习,可以选择性地将云机器学习配置为利用GPU,从而减少借助TensorFlow大规模培训您的模型所需的时间。

在今天的公告发布后,您已可以在全球四个地区部署NVIDIA Tesla P100和K80 GPU。现在,我们的所有GPU都支持阶梯使用折扣:在您使用我们的GPU运行持续的工作负载时,虚拟机的价格会自动降低(折扣最高30%)。享受这些折扣无需绑定服务商也无需预付最低费用保证金。

加快机器学习工作负载速度

自推出GPU以来,我们已经看到用户从GPU提供的额外计算性能中获益。得到GPU加速的工作负载包括基因组学、计算金融,以及机器学习模型训练和推理等。我们的客户Shazam是在GCP上采用GPU的首批用户之一,他们采用GPU来为音乐识别服务提供支持。

“对于某些任务而言,用NVIDIA GPU代替传统CPU能获得成本效益和性能的提升。GPU与Shazam核心音乐识别工作负载的相性很好,我们由此将用户录制的音频片段与我们收录了4000多万首歌曲的目录相匹配。我们通过拍摄每首歌曲的音频签名,将其编译成自定义数据库格式并将其加载到GPU内存中。每当用户通过Shazams发现歌曲时,我们的算法就会使用GPU搜索该数据库,直到找到匹配项。每天成功匹配的次数超过2000万次。”—Shazam网站可靠性工程负责人

今天发布的云GPU公告让GCP又迈进了一步,由此成为所有硬件加速工作负载的理想选择。在NVIDIA P100 GPU加入后,我们将重点关注帮助您将新的用例带入生活。

来源:业界供稿

0赞

好文章,需要你的鼓励

2017

09/26

12:53

分享

点赞

邮件订阅
白皮书