有超过500个高性能计算应用都采用了GPU加速,Nvidia把目标对准了让这些应用更易于访问。
Nvidia开始涉足融合GPU加速的大量高性能计算(HPC)应用,本周一宣布在Nvidia GPU Cloud (NGC)容器注册表中增加了新的软件和工具,可以让科学家们快速部署科学计算应用和HPC可视化工具,
通常,希望使用这些应用的科学家们面临着耗费大量时间的安装问题以及资源密集的升级过程。现在,访问这些应用就像“从苹果应用商店下载一款应用一样简单”,Nvidia公司副总裁、加速计算总经理Ian Buck表示。
任何持有NGC帐户的人,都可以从NGC容器注册表获得HPC应用和HPC可视化容器。HPC容器可以运行在任何Nvidia Pascal和下一代Nvidia GPU加速的系统上。
Nvidia在丹佛举行的SuperComputing17大会上公布了这些工具,展示Nvidia正在越来越多地涉足高性能计算领域。
目前,已经有超过500个HPC应用是GPU加速的。来自分析师公司Interesect360 Research的报告,这其中包括TOP15以及70%的TOP50 HPC应用。从天文学到生命科学和医疗成像,GPU加速应用正在被用于广泛的科学领域,但是却难以安装。
Buck解释说:“这些应用是从很多不同的软件堆栈和库之上进行开发的,是由研究人员为他们自己开发的,而不一定是为大众发布开发的——这并不是他们的首要任务。”
Nvidia在深度学习和云社区领域解决了相同的问题,上个月,Nvidia发布了GPU Cloud for AI开发者工具,现在该工具已经成为容器注册表的一部分。
就NGC中的HPC应用来说,Nvidia是从小范围起步的,主要有5个应用:GAMESS、GROMACS、LAMMPS、NAMD和RELION,未来还有更多。
与此同时,在HPC可视化方面,Nvidia与ParaView合作推出了三个容器现在正处于测试阶段:ParaView with Nvidia IndeX是针对可视化大规模批量数据的;ParaView with Nvidia Optix是针对光线追踪的;Nvidia Holodeck则提供了交互式的实时可视化和高质量视觉效果。
本周一Nvidia还宣布基于Nvidia Volta架构的Tesla V100 GPU现在已经通过所有主流服务器厂商和主流云服务提供商提供,以交付人工智能和高性能计算,服务器厂商包括Dell EMC、HPE、华为、IBM和联想,云服务提供商包括阿里云、AWS、百度云、微软Azure、Oracle Cloud和腾讯云。
好文章,需要你的鼓励
Meta 悄悄放弃了 Llama?一个叫 Muse Spark 的新 AI 横空出世,背后藏着一场惊天大翻身。
俄亥俄州立大学研究团队开发了革命性的AI系统,能自动识别昆虫图像中的身体特征并生成准确的文字描述。该技术运用稀疏自编码器和大型语言模型,在80000个昆虫特征样本上达到专家级准确性,将传统需要数世纪的人工标注工作缩短到小时级别,为生态学研究和生物多样性保护开辟了新道路。
AMD AI部门高级总监Stella Laurenzo公开批评Anthropic旗下Claude Code存在推理能力退化问题。她通过分析近7000个会话文件中的1.7万余个思维块和23万余次工具调用,发现该工具在处理复杂工程任务时存在"不读代码直接修改"等浅层推理行为,导致团队暂停将其用于硬件调试和内核级开发。分析师指出,这本质上是算力与成本约束问题,并预测行业将普遍转向分层计费模式。
ServiceNow研究院开发的Apriel-Reasoner AI模型实现重要突破,通过创新的"难度感知"机制让AI学会根据问题复杂度调整思考深度。该模型在保持高准确率的同时,生成的回答比同类模型短30-50%,显著降低计算成本。研究采用多领域联合训练和自适应采样技术,在数学、编程等五个领域的权威测试中均表现优异,为AI推理效率优化提供了新方向。