有超过500个高性能计算应用都采用了GPU加速,Nvidia把目标对准了让这些应用更易于访问。
Nvidia开始涉足融合GPU加速的大量高性能计算(HPC)应用,本周一宣布在Nvidia GPU Cloud (NGC)容器注册表中增加了新的软件和工具,可以让科学家们快速部署科学计算应用和HPC可视化工具,
通常,希望使用这些应用的科学家们面临着耗费大量时间的安装问题以及资源密集的升级过程。现在,访问这些应用就像“从苹果应用商店下载一款应用一样简单”,Nvidia公司副总裁、加速计算总经理Ian Buck表示。
任何持有NGC帐户的人,都可以从NGC容器注册表获得HPC应用和HPC可视化容器。HPC容器可以运行在任何Nvidia Pascal和下一代Nvidia GPU加速的系统上。
Nvidia在丹佛举行的SuperComputing17大会上公布了这些工具,展示Nvidia正在越来越多地涉足高性能计算领域。
目前,已经有超过500个HPC应用是GPU加速的。来自分析师公司Interesect360 Research的报告,这其中包括TOP15以及70%的TOP50 HPC应用。从天文学到生命科学和医疗成像,GPU加速应用正在被用于广泛的科学领域,但是却难以安装。
Buck解释说:“这些应用是从很多不同的软件堆栈和库之上进行开发的,是由研究人员为他们自己开发的,而不一定是为大众发布开发的——这并不是他们的首要任务。”
Nvidia在深度学习和云社区领域解决了相同的问题,上个月,Nvidia发布了GPU Cloud for AI开发者工具,现在该工具已经成为容器注册表的一部分。
就NGC中的HPC应用来说,Nvidia是从小范围起步的,主要有5个应用:GAMESS、GROMACS、LAMMPS、NAMD和RELION,未来还有更多。
与此同时,在HPC可视化方面,Nvidia与ParaView合作推出了三个容器现在正处于测试阶段:ParaView with Nvidia IndeX是针对可视化大规模批量数据的;ParaView with Nvidia Optix是针对光线追踪的;Nvidia Holodeck则提供了交互式的实时可视化和高质量视觉效果。
本周一Nvidia还宣布基于Nvidia Volta架构的Tesla V100 GPU现在已经通过所有主流服务器厂商和主流云服务提供商提供,以交付人工智能和高性能计算,服务器厂商包括Dell EMC、HPE、华为、IBM和联想,云服务提供商包括阿里云、AWS、百度云、微软Azure、Oracle Cloud和腾讯云。
好文章,需要你的鼓励
开放闪存平台(OFP)旨在用直接访问的闪存盒替代全闪存阵列,每个闪存盒配备控制器DPU、Linux系统和并行NFS软件。该倡议由Hammerspace主导,针对新云、超大规模和AI公司在数据中心设计演进中面临的基础设施限制。OFP通过结合IPU/DPU技术、闪存优化机箱和Linux协议,提供高密度、低功耗的存储解决方案,满足AI应用从PB级向EB级数据容量需求的扩展。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
ERP系统市场近年来相对稳定,但AI正在改变一切。供应商们正竞相在产品组合中嵌入AI功能,构建包括可组合应用、集中数据存储和可扩展云平台的生态系统。Oracle凭借AI投资超越SAP成为ERP收入领导者,而AI代理已从实验阶段进入实际应用,能够管理整个工作流程并进行自动化决策。本文盘点了Oracle、SAP、微软等十大最具影响力的ERP厂商及其AI战略。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。