计算机图形芯片制造商Nvidia正在为新型超级计算机铺平道路,宣布其人工智能和高性能计算基础设施将很快支持基于Arm的CPU。
Nvidia今天早些时候表示,自己的CUDA-X AI和HPC库、GPU加速AI框架和软件开发工具将在今年年底前支持基于Arm的设备。这是重要一步,因为基于Arm的超级计算机由于具有更高功效而能够支持更大的规模。
Nvidia首席执行官黄仁勋表示:“随着传统计算扩展的结束,电力将成为限制所有超级计算机的一个因素。Nvidia的CUDA加速计算和Arm高能效CPU架构相结合,将为高性能计算领域提供一个提升突破百亿亿级性能的机会。”
Nvidia加速计算总经理兼副总裁在新闻发布会上表示,之所以决定支持基于Arm的CPU是因为他们对这个领域有着广泛而越来越浓厚的兴趣。”
“Arm吸引人之处在于它是非常开放的,它提供的灵活性可以连接CPU和GPU,实现更高能效的计算。”
由于Nvidia的寄出设施支持x86和基于POWER的计算机芯片,因此全球25个最节能的超级计算机中已经有22个采用了Nvidia的基础设施。Nvidia希望凭借对Arm芯片的支持提升自己的高性能计算领域的地位,支持更高级的人工智能工作负载。
Nvidia还希望将超级计算能力扩展到特定用途,例如为自动驾驶汽车训练AI系统。
为此,Nvidia在今天推出了所谓号称全球第22快的超级计算机——DGX SuperPOD,以及一个参考架构,面向那些希望将这个超级计算机部署在他们自己数据中心内部或者外部的企业。
Nvidia表示,DGX SuperPOD旨在提供部署大量自动驾驶车辆所需的AI训练基础设施。该系统可以三周之内部署完成,由96个Nvidia旧款DGX-2H超级计算机组成,这些超级计算机采用新的数据中心互连技术(今年早些时候收购Mellanox获得的技术)进行集成。
Nvidia表示,DGX SuperPOD旨在为自动驾驶汽车训练神经网络,使车辆可以了解“道路规则”,并提供每秒9.4 petaflops的性能,这个数字令人惊讶——以至于可以把对主流图像分类ResNet-50 AI算法的训练时间从25天缩短到不到2分钟。
Nvidia人工智能基础设施副总裁Clement Farabet在声明中表示:“要在人工智能领域占据领先地位,就需要在计算基础设施领域占据领先地位。很少有人工智能方面的挑战像训练自动驾驶汽车这样苛刻,需要对神经网络进行数万次的反复训练,以满足极高精确度的要求。”
好文章,需要你的鼓励
AWS与AMD联合发布Amazon EC2 M8a实例,搭载第五代AMD EPYC处理器,最高频率4.5GHz。相比M7a实例性能提升30%,性价比提升19%。支持最高192个vCPU和768GB内存,网络带宽达75Gbps,EBS带宽60Gbps。适用于Web托管、微服务架构、数据库等通用工作负载,已在美国俄亥俄、俄勒冈和欧洲西班牙区域上线。
香港中文大学等顶尖院校联合研究发现,当前最先进的AI视频生成技术已能制作出连顶级检测系统都无法识别的假视频。研究团队开发了Video Reality Test平台,测试结果显示最强生成模型Veo3.1-Fast的假视频仅有12.54%被识别,而最强检测系统Gemini 2.5-Pro准确率仅56%,远低于人类专家的81.25%。研究还发现检测系统过度依赖水印等表面特征,音频信息能提升检测准确性,但技术发展已对信息真实性判断带来严峻挑战。
IBM发布了适用于SAP的IBM咨询应用管理套件,利用生成式和代理AI简化并加速现代化进程。SAP传统ECC系统支持将于2027年结束,但目前仅45%的组织已迁移到新的S/4HANA系统。IBM的工具可创建符合客户标准的特定代码更改,提供主动监控和影响分析。然而分析师指出,迁移工具未能解决核心问题:价值创造,因为客户需要处理多年积累的ECC系统定制化技术债务。
Google DeepMind团队提出了革命性的"扩散预览"模式,通过ConsistencySolver技术实现AI图像生成的"预览+精修"工作流程。该技术能在5-10步内生成高质量预览图像,与传统40步完整生成保持高度一致性,用户体验测试显示总体时间节省近50%,大大提高了创作效率和创意探索的自由度。