Nvidia今天宣布在谷歌公有云平台上提供最新的GPU A100。
Nvidia A100 Tensor Core GPU现在是作为Alpha版本提供的,是Google Compute Engine服务中最新Accelerator-Optimized VM(A2)实例家族的一个组成部分。
Nvidia称,这款芯片采用了Nvidia下一代Ampere架构,是Nvidia迄今为止最强大的GPU。A100主要针对人工智能训练和推理工作负载设计,与Volta GPU相比性能提高了20倍。
A100 Ampere芯片也是Nvidia尺寸最大的芯片,由540亿个晶体管组成,采用了Nvidia第三代Tensor核心,具有针对稀疏矩阵运算的加速功能,这一点特别适用于AI计算。
Google Cloud产品管理总监Manish Sainani表示:“Google Cloud客户经常提出,希望我们提供最新的硬件和软件服务,帮助他们推动人工智能和科学计算工作负载的创新。和此前采用Nvidia T4 GPU一样,我们很高兴通过最新的A2 VM系列成为第一个销售Nvidia A100 GPU的主流云提供商。我们也很高兴看到客户能够利用这些新能力。”
Nvidia表示,除了AI工作负载外,A100芯片还支持数据分析、科学计算、基因组学、边缘视频分析和5G服务等。
A100芯片还可以将自身划分为多个实例,一次同时执行多个任务,以及通过Nvidia NVLink互连技术连接多个A100芯片,以训练大型AI工作负载。
谷歌正在利用这个优势,新的Accelerator-Optimized VM(A2)实例家族包括一个a2-megagpu-16g选件,该选件允许客户一次使用多达16个A100 GPU,总共640 GB GPU内存和1.3 TB系统内存,每秒总带宽达到9.6 TB。
Nvidia表示,A100 GPU还提供较小型的配置,适用于运行要求较低的工作负载。Nvidia表示,不久的将来其他Google Cloud服务也将采用 A100 GPU,包括Google Kubernetes Engine和Google Cloud AI Platform。
Constellation Research分析师Holger Mueller表示,Nvidia在Google Cloud上提供A100 GPU对用户来说是一个好消息,因为这样用户就可以轻松地通过公有云使用Nvidia最新的芯片了。
Mueller说:“这对于Nvidia也是一次胜利,因为这样Nvidia就可以把最新的芯片转移到本地部署环境之外。对于Google来说,也是一次胜利,因为Google成为了支持Nvidia最新平台的首家大型云服务提供商。现在,就看数据分析师、开发人员和数据科学家了,他们可以使用这款新的芯片为他们下一代应用的AI组件提供支持。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。