Nvidia今天宣布在谷歌公有云平台上提供最新的GPU A100。
Nvidia A100 Tensor Core GPU现在是作为Alpha版本提供的,是Google Compute Engine服务中最新Accelerator-Optimized VM(A2)实例家族的一个组成部分。
Nvidia称,这款芯片采用了Nvidia下一代Ampere架构,是Nvidia迄今为止最强大的GPU。A100主要针对人工智能训练和推理工作负载设计,与Volta GPU相比性能提高了20倍。
A100 Ampere芯片也是Nvidia尺寸最大的芯片,由540亿个晶体管组成,采用了Nvidia第三代Tensor核心,具有针对稀疏矩阵运算的加速功能,这一点特别适用于AI计算。
Google Cloud产品管理总监Manish Sainani表示:“Google Cloud客户经常提出,希望我们提供最新的硬件和软件服务,帮助他们推动人工智能和科学计算工作负载的创新。和此前采用Nvidia T4 GPU一样,我们很高兴通过最新的A2 VM系列成为第一个销售Nvidia A100 GPU的主流云提供商。我们也很高兴看到客户能够利用这些新能力。”
Nvidia表示,除了AI工作负载外,A100芯片还支持数据分析、科学计算、基因组学、边缘视频分析和5G服务等。
A100芯片还可以将自身划分为多个实例,一次同时执行多个任务,以及通过Nvidia NVLink互连技术连接多个A100芯片,以训练大型AI工作负载。
谷歌正在利用这个优势,新的Accelerator-Optimized VM(A2)实例家族包括一个a2-megagpu-16g选件,该选件允许客户一次使用多达16个A100 GPU,总共640 GB GPU内存和1.3 TB系统内存,每秒总带宽达到9.6 TB。
Nvidia表示,A100 GPU还提供较小型的配置,适用于运行要求较低的工作负载。Nvidia表示,不久的将来其他Google Cloud服务也将采用 A100 GPU,包括Google Kubernetes Engine和Google Cloud AI Platform。
Constellation Research分析师Holger Mueller表示,Nvidia在Google Cloud上提供A100 GPU对用户来说是一个好消息,因为这样用户就可以轻松地通过公有云使用Nvidia最新的芯片了。
Mueller说:“这对于Nvidia也是一次胜利,因为这样Nvidia就可以把最新的芯片转移到本地部署环境之外。对于Google来说,也是一次胜利,因为Google成为了支持Nvidia最新平台的首家大型云服务提供商。现在,就看数据分析师、开发人员和数据科学家了,他们可以使用这款新的芯片为他们下一代应用的AI组件提供支持。”
好文章,需要你的鼓励
F5发布AI Guardrails和AI Red Team两款AI安全产品,以及面向Google Cloud的NGINXaaS服务。AI Guardrails作为代理层部署在用户与AI模型之间,拦截并分析提示词和输出内容,防范注入攻击和越狱技术。AI Red Team自动化对抗性测试,月增1万条攻击技术条目。NGINXaaS现已扩展至Google Cloud,提供负载均衡和安全可观测性功能。
复旦大学研究团队通过大规模实验发现,AI训练中最强的"老师"模型并不一定能教出最好的"学生"模型。他们提出了"排名惊讶比率"新指标,能精准匹配最适合的师生配对。该方法在多项测试中表现优异,预测准确性达0.86,为个性化AI训练和教育提供了科学依据。
思科作为企业网络设备的主导厂商,在CEO Chuck Robbins领导下持续推进变革。公司专注于AI基础设施建设,与BlackRock、微软、英伟达等巨头建立战略合作伙伴关系,投资AI数据中心和生态系统。思科将AI技术深度整合到安全产品中,推出Cisco Secure AI Factory等解决方案。同时,公司积极应对网络安全挑战,修复关键漏洞,推出新认证课程,并通过收购和技术创新强化其在AI时代的基础设施提供商地位。
斯坦福大学人工智能实验室2024年发布的这项研究深入探讨了大型语言模型的推理机制。研究团队通过创新的分析方法,首次系统性地揭示了AI模型在处理复杂推理任务时的内部工作方式,发现其信息处理模式与人类思维有相似之处,但本质上仍依赖统计学习。研究识别了AI推理的典型错误模式和局限性,为改进AI系统提供了科学依据,对AI技术的负责任发展具有重要意义。