有超过500个高性能计算应用都采用了GPU加速,Nvidia把目标对准了让这些应用更易于访问。
Nvidia开始涉足融合GPU加速的大量高性能计算(HPC)应用,本周一宣布在Nvidia GPU Cloud (NGC)容器注册表中增加了新的软件和工具,可以让科学家们快速部署科学计算应用和HPC可视化工具,
通常,希望使用这些应用的科学家们面临着耗费大量时间的安装问题以及资源密集的升级过程。现在,访问这些应用就像“从苹果应用商店下载一款应用一样简单”,Nvidia公司副总裁、加速计算总经理Ian Buck表示。
任何持有NGC帐户的人,都可以从NGC容器注册表获得HPC应用和HPC可视化容器。HPC容器可以运行在任何Nvidia Pascal和下一代Nvidia GPU加速的系统上。
Nvidia在丹佛举行的SuperComputing17大会上公布了这些工具,展示Nvidia正在越来越多地涉足高性能计算领域。
目前,已经有超过500个HPC应用是GPU加速的。来自分析师公司Interesect360 Research的报告,这其中包括TOP15以及70%的TOP50 HPC应用。从天文学到生命科学和医疗成像,GPU加速应用正在被用于广泛的科学领域,但是却难以安装。
Buck解释说:“这些应用是从很多不同的软件堆栈和库之上进行开发的,是由研究人员为他们自己开发的,而不一定是为大众发布开发的——这并不是他们的首要任务。”
Nvidia在深度学习和云社区领域解决了相同的问题,上个月,Nvidia发布了GPU Cloud for AI开发者工具,现在该工具已经成为容器注册表的一部分。
就NGC中的HPC应用来说,Nvidia是从小范围起步的,主要有5个应用:GAMESS、GROMACS、LAMMPS、NAMD和RELION,未来还有更多。
与此同时,在HPC可视化方面,Nvidia与ParaView合作推出了三个容器现在正处于测试阶段:ParaView with Nvidia IndeX是针对可视化大规模批量数据的;ParaView with Nvidia Optix是针对光线追踪的;Nvidia Holodeck则提供了交互式的实时可视化和高质量视觉效果。
本周一Nvidia还宣布基于Nvidia Volta架构的Tesla V100 GPU现在已经通过所有主流服务器厂商和主流云服务提供商提供,以交付人工智能和高性能计算,服务器厂商包括Dell EMC、HPE、华为、IBM和联想,云服务提供商包括阿里云、AWS、百度云、微软Azure、Oracle Cloud和腾讯云。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。