随着工业巨头越来越多地开始使用云,NVIDIA 与 Rescale 合作,将全栈 NVIDIA AI 软件提供给所有大型云服务商。
与许多企业一样,工业科学计算领域也存在数据问题。
无论是新能源开发、新交通运输模式创建等看似棘手的挑战,还是提高运营效率、改善客户支持等关键型问题,都需要通过大规模高性能计算予以解决。
借助 Rescale 云平台,伊莱克斯(Electrolux)、电装(Denso)、三星、Virgin Orbit 等公司不必设计、制造和构建更多的超级计算机,这使他们能够以节能的方式扩展加速计算,并加速创新。
为了满足工业科学界对云端 AI 日益增长的需求,NVIDIA 创始人兼首席执行官黄仁勋与 Rescale 创始人兼首席执行官 Joris Poort 一同出席 Rescale Big Compute 线上会议,宣布 Rescale 将采用 NVIDIA AI 软件组合。
NVIDIA AI 将为 Rescale 的高性能计算即服务产品带来新的功能,这些产品包括分布在各行各业的数百家客户所使用的仿真和工程软件。NVIDIA 也正为今天所发布的 Rescale 计算推荐引擎提供加速,该引擎使客户能够确定正确的基础设施方案,以优化成本和速度目标。
黄仁勋表示:“物理学机器学习 AI 模型融合了原则性、数据驱动的方法,使设计空间的探索速度和规模提升了好几个数量级。Rescale 正处于这些主要趋势的交汇点。NVIDIA 的加速和 AI 计算平台与 Rescale 形成了完美互补,推动了工业科学计算的发展。”
Joris Poort 表示: “追求突破创新的工程师和科学家需要集成云平台,让研发软件和加速计算变得触手可及。借助 NVIDIA 加速的高性能计算,我们帮助客户加快研究速度并节约成本。将 NVIDIA AI Enterprise 应用于 Rescale 平台中,能够融合最先进的算力与最强大的 AI,并支持更多类型的 AI 工作流,最终研发领导者可以在所选择的任何云上运行它们。”
NVIDIA AI 进一步扩展云端高性能计算
两家公司宣布,他们正在把 NVIDIA AI Enterprise 引入 Rescale,扩大该云平台的产品范围,以包含 NVIDIA 支持的 AI 工作流和处理引擎。一旦推出,在 NVIDIA 的支持下,客户将能够在任何领先的云中开发 AI 应用。
作为广受全球采用的 NVIDIA AI 平台软件,NVIDIA AI Enterprise 包含 AI 工作流每个步骤的基本处理引擎,从数据处理和 AI 模型训练到仿真和大规模部署。
NVIDIA AI 使企业机构能够开发预测模型,通过计算机视觉、路线和供应链优化、机器人仿真等应用来补充和扩展工业高性能计算的研发。
通过 Rescale 软件目录,可以访问 NVIDIA NGC 上的数百个 NVIDIA 加速的容器化应用和预训练 AI 模型,客户能够按需运行仿真以及扩大或缩小规模。
NVIDIA Modulus 加速基于物理学的机器学习
Rescale 现在提供用于开发物理学机器学习神经网络模型的 NVIDIA Modulus 框架,为广泛的工程用例提供支持。
Modulus 融合了物理学与数据的力量,构建能够实现近实时仿真的高保真模型。只需在 Rescale 平台上点击几下,客户就能通过 Modulus 运行整个 AI 驱动的仿真工作流,从数据预处理和模型训练到推理和模型部署。
从本地到云的工作流编排扩大灵活性
Rescale 还整合了 NVIDIA Base Command Platform AI 开发者工作流管理软件,该软件可以将各个云上的工作负载编排到本地 NVIDIA DGX 系统。
NVIDIA 在各个领先的云服务商平台上加速 Rescale 的高性能计算即服务平台,包括 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure。Rescale 是 NVIDIA 初创加速计划成员之一。
如您要了解更多信息,欢迎观看 Big Compute 主题演讲回放中黄仁勋和 Joris Poort 就本新闻所展开的讨论对话。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。