仅在发布几周后,NVIDIA A100 GPU已登录Google Compute Engine。
NVIDIA A100 Tensor Core GPU现已登录Google Cloud。
自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。
Google今日发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google 成为全球首个提供A100——这一最新GPU的云服务商。
A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,极大的提升了工作负载运行速度,赋能AI革命。
Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”
在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。
基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。
云端A100以突破性的性能为各种规模的工作负载提速
全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。
针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。
针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。
Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。
好文章,需要你的鼓励
由于人类活动强度更大、建筑密度更高且绿地面积有限,城市区域温度往往远高于周遭农村地区,而这就是所谓城市热岛效应。此类影响已经对城市居民的健康与福祉构成重大挑战,而且问题本身也随着城市化进程的推进而不断凸显。
沃达丰与谷歌合作,为 Pixel 8 Pro 和新款 Pixel 9 系列手机用户提供增强的上传性能。这项合作利用多输入多输出 (MIMO) 技术和上行载波聚合 (ULCA),旨在应对用户生成内容增长和人工智能等新技术的需求,提高上传速度和连接可靠性,使客户能够更快地分享高质量内容。
2024年科技行业的多元化、公平性和包容性面临严峻挑战。许多公司缩减相关计划,引发担忧。一些知名多元化组织也因此减少努力。年末之际,英国科技界明年的多元化前景仍充满不确定性。
Precision Neurosciences 完成 1.02 亿美元融资,加速其脑植入设备的临床试验。同时,文章还提到了其他几家公司在脑机接口领域的进展,以及数字健康领域的其他融资消息,包括 Redesign Health、DeepLife、TG0 和 Tuva Health 等公司的融资情况。