近日起,Google Cloud 面向全球各地推出NVIDIA T4 GPU,为包括高性能计算(HPC)、机器学习训练及推理、数据分析和图形处理等在内的各类云工作负载提供加速。今年1月,Google Cloud宣布推出了NVIDIA T4 GPU公测版,帮助客户以更快的速度和更低的成本运行推理工作负载。今年四月早些时候,在Google Next '19上,Google Cloud宣布在八个地区率先推出NVIDIA T4,使Google Cloud成为全球第一家基于NVIDIA T4提供服务的主要供应商。
每个T4 GPU都拥有16 GB的GPU内存,提供多精度(或数据类型)支持(FP32,FP16,INT8和INT4),具有可为训练提供加速的NVIDIA Tensor核心,以及可用于更快速的光线追踪的RTX硬件加速平台。用户可以使用四个T4 GPU、96个vCPU、624 GB主机内存和高达3 TB的服务器本地SSD,来搭建最能满足其需求的自定义VM配置。
自发布之时,在抢占式VM实例上,T4实例的售价仅为每GPU每小时0.29美元。按需实例的售价为每GPU每小时0.95美元起,而且持续使用还可享受高达30%的折扣。
凭借NVIDIA Turing架构,T4 GPU引入了第二代Tensor核心。Tensor 核心首次亮相于NVIDIA V100 GPU之上(Google Cloud平台(GCP)也提供基于NVIDIA V100 GPU的服务),支持混合精度,可以为在机器学习工作负载中普遍采用的矩阵乘法运算提供加速。如果您的训练工作量还未达到需要使用功能更加强大的V100的程度,那么T4将能够以更低的价格为您提供Tensor 核心的加速优势。T4非常适合应用于大规模训练工作负载中,特别是当您扩展更多资源来加快训练或训练更大的模型的时候。
Tensor核心也可以为推理提供加速,或运用机器学习模型加速生成预测,以实现低延迟或高吞吐量。当以混合精度启用Tensor核心时,与仅以FP32运行相比,借助于TensorRT, GCP上的T4 GPU可以将ResNet-50的推理速度提高10倍以上。受益于全球供货和谷歌的高速网络,GCP上的NVIDIA T4能够以高性价比,为那些需要高效运作的全球性服务供应商提供服务。例如,Snap就在使用NVIDIA T4为其全球用户群创建更有效的算法的同时,保持了低成本。
借助于Google Cloud上的深度学习VM镜像(Deep Learning VM images),可以在NVIDIA T4 GPU上快速启动和运行机器学习模型的训练和服务推理工作负载。这些应用包括了您需要的所有软件:驱动程序,CUDA-X AI库,以及主流AI框架,如TensorFlow和PyTorch。此外,Google Cloud会为您进行软件更新,使您不必再为了兼容性和性能优化的问题额外费心。您只需创建一个新的Compute Engine实例,选择您的镜像,单击Start,几分钟后,您就可以访问和启用您的由T4赋能的实例。您也可以在Google Cloud的AI平台上启动您的实例,这是一个端到端的开发环境,可帮助机器学习开发人员和数据科学家在任何地方构建、共享和运行机器学习应用程序。一旦准备就绪,只需几行代码,您就可以借助于Tensor核心的自动混合精度实现加速。
NVIDIA T4 GPU还能为HPC批量计算和渲染工作负载带来卓越的性能和效率,将大规模部署的效用价值最大化。
T4 GPU也是运行虚拟工作站的绝佳选择,能够为工程师和专业创意人员提供支持。借助于GCP Marketplace中的NVIDIA Quadro虚拟工作站,用户可以运行基于NVIDIA RTX平台的应用程序,能在任何地方体验新一代计算机图形技术,包括实时光线追踪和AI增强型图形,以及视频和图像处理。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。