有超过500个高性能计算应用都采用了GPU加速,Nvidia把目标对准了让这些应用更易于访问。
Nvidia开始涉足融合GPU加速的大量高性能计算(HPC)应用,本周一宣布在Nvidia GPU Cloud (NGC)容器注册表中增加了新的软件和工具,可以让科学家们快速部署科学计算应用和HPC可视化工具,
通常,希望使用这些应用的科学家们面临着耗费大量时间的安装问题以及资源密集的升级过程。现在,访问这些应用就像“从苹果应用商店下载一款应用一样简单”,Nvidia公司副总裁、加速计算总经理Ian Buck表示。
任何持有NGC帐户的人,都可以从NGC容器注册表获得HPC应用和HPC可视化容器。HPC容器可以运行在任何Nvidia Pascal和下一代Nvidia GPU加速的系统上。
Nvidia在丹佛举行的SuperComputing17大会上公布了这些工具,展示Nvidia正在越来越多地涉足高性能计算领域。
目前,已经有超过500个HPC应用是GPU加速的。来自分析师公司Interesect360 Research的报告,这其中包括TOP15以及70%的TOP50 HPC应用。从天文学到生命科学和医疗成像,GPU加速应用正在被用于广泛的科学领域,但是却难以安装。
Buck解释说:“这些应用是从很多不同的软件堆栈和库之上进行开发的,是由研究人员为他们自己开发的,而不一定是为大众发布开发的——这并不是他们的首要任务。”
Nvidia在深度学习和云社区领域解决了相同的问题,上个月,Nvidia发布了GPU Cloud for AI开发者工具,现在该工具已经成为容器注册表的一部分。
就NGC中的HPC应用来说,Nvidia是从小范围起步的,主要有5个应用:GAMESS、GROMACS、LAMMPS、NAMD和RELION,未来还有更多。
与此同时,在HPC可视化方面,Nvidia与ParaView合作推出了三个容器现在正处于测试阶段:ParaView with Nvidia IndeX是针对可视化大规模批量数据的;ParaView with Nvidia Optix是针对光线追踪的;Nvidia Holodeck则提供了交互式的实时可视化和高质量视觉效果。
本周一Nvidia还宣布基于Nvidia Volta架构的Tesla V100 GPU现在已经通过所有主流服务器厂商和主流云服务提供商提供,以交付人工智能和高性能计算,服务器厂商包括Dell EMC、HPE、华为、IBM和联想,云服务提供商包括阿里云、AWS、百度云、微软Azure、Oracle Cloud和腾讯云。
好文章,需要你的鼓励
亚马逊宣布向Anthropic追加50亿美元投资,分析师指出此举更多是为解决AI算力瓶颈。根据协议,Anthropic将锁定AWS最高5吉瓦的Trainium芯片算力,包括新一代Trainium 3和Trainium 4。此前Anthropic因容量不足被迫限流,此次扩容将提升用户并发支持能力。协议还涵盖亚欧地区推理算力扩展。分析师指出,此类交易已超越传统风险投资范畴,本质是"供应链融资"——将股权投资与云计算承诺捆绑,以锁定客户并确保资本回报。
这篇由清华大学、香港大学、美团LongCat团队等机构联合发布于2026年4月的综述(arXiv:2604.10098),是关于Transformer"注意力沉积"(Attention Sink)问题的首篇全面系统性研究。注意力沉积是指AI模型将大量注意力集中到语义无关的词上的普遍现象。综述梳理超过180篇研究,围绕"如何利用、如何解释、如何消除"三个维度构建了完整知识体系,涵盖大语言模型、视觉Transformer、多模态模型等多种架构,为AI推理效率、幻觉治理和低精度部署提供了系统性指导。
前微软工程师Dave Plummer是任务管理器的原始开发者,他近日解释了CPU使用率显示背后的原理。任务管理器并非实时读取CPU数值,而是通过定时器采样,计算两次采样间的CPU累计执行时间差来估算使用率。这一方法在早期静态时钟频率的CPU上表现良好,但在现代CPU动态调频、核心休眠等机制普及后,显示结果更接近"占用率"而非真实"生产力",导致数字有时显得不够精准。
这项由加州大学圣地亚哥分校等多家机构联合发布于2026年4月的研究(arXiv:2604.11201),推出了名为COCOABENCH的AI综合能力测试平台,包含153道需要同时运用视觉理解、网络搜索和编程三种能力的真实任务,并配套轻量级测试框架COCOA-AGENT。测试发现,当前最强AI系统成功率仅为45.1%,主要失败原因集中在推理规划、工具执行和视觉感知三大方面,揭示了现有AI距离"真正全能数字助手"仍有显著差距。