仅在发布几周后,NVIDIA A100 GPU已登录Google Compute Engine。
NVIDIA A100 Tensor Core GPU现已登录Google Cloud。
自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。
Google今日发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google 成为全球首个提供A100——这一最新GPU的云服务商。
A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,极大的提升了工作负载运行速度,赋能AI革命。
Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”
在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。
基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。
云端A100以突破性的性能为各种规模的工作负载提速
全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。
针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。
针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。
Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。