Nvidia宣布与高性能计算初创公司Rescale展开合作,简化在公有云基础设施上运行人工智能应用的任务。
此次双方的合作伙伴关系包括几个部分,其中Rescale将把自己的技术与Nvidia的几个人工智能开发和部署工具集成在一起。此外,Rescale正在推出一种软件功能,可以自动优化企业人工智能应用环境的成本和性能。
总部位于美国旧金山的Rescale已经获得了来自Nvidia、微软和其他一些知名投资者超过1.5亿美元的资金支持,它提供的软件平台可以更轻松地在云中运行高性能计算应用。高性能计算应用是一种硬件密集型应用,例如用于支持研究和工程项目的物理模拟器。
Rescale的Rescale平台可以自动执行在云基础设施上部署高性能计算软件所涉及的大部分手动工,还可以执行应用保护等相关任务。
Resale公司首席产品官Edward Hsu在新闻发布会上说:“我们正在从我所说的基于直觉的工程转向更科学的模型。”
Hsu举了几个例子来说明这项工作。例如,一家机翼设计公司过去必须提出设计并在风洞中进行测试,这是一个漫长且成本极高的过程。他说,这家公司可以在不使用风洞的情况下,在Rescale的平台上模拟20到30种翼型设计,而且现在借助Nvidia的新功能,他们可以进行所有这些实验并使用人工智能和机器学习来确定哪个是适合当前目标的。
Rescale还在功能集中提供了预打包高性能计算应用的目录。客户无需大量手动操作即可部署应用。Rescale还通过这次与Nvidia的合作,向软件目录中增加了对Nvidia几种AI工具的支持。
首先是Nvidia AI Enterprise平台,这个集合中包含了十多款软件工具,旨在简化构建、部署和维护神经网络的任务。
Nvidia AI Enterprise平台中的一些工具专注于简化Nvidia AI软件云基础设施的管理过程,还可以优化神经网络以更有效地使用Nvidia芯片。为了简化开发人员的工作,Nvidia还在其中提供了软件构建块,可以更轻松地为机器人等场景创建AI应用。
除了Nvidia AI Enterprise,Rescale将在自己的平台上支持其他很多Nvidia的软件工具。
其中一个工具是Nvidia Base Command Platform,研究人员通过这个界面可以协调训练新神经网络的过程,此外还有Nvidia Modulus软件,该软件可以更轻松地构建用于执行涉及物理计算研究和工程任务的神经网络。
Nvidia公司创始人、首席执行官黄仁勋表示:“物理机器学习人工智能模型融合了原则性和数据驱动的方法,让我们能够以比以往任何时候都高出许多数量级的速度和规模探索我们的设计空间。Rescale则处于这些主要趋势的交汇处。Nvidia的加速计算和AI计算平台是对Rescale的完美补充,有助于推进工业科学计算。”
除了扩大对Nvidia软件的支持之外,此次Rescale还推出了一款名为Compute Recommendation Engine(CRE)的新工具,在帮助公司优化运行人工智能和高性能计算应用的云环境。
据Rescale称,CRE工具将硬件成本最小化,对于把哪些基础设施资源添加到云环境中进行优化。而且,该工具能够配置基础设施资源以最大限度地提高性能,企业组织可以根据自己的要求定制CRE平衡成本效益和绩效的方式。
Rescale公司创始人、首席执行官Joris Poort表示:“我们独特的为云而构建的方法,让我们能够为全球任何云上的任何工作负载按需地提供最佳的加速计算性能,我们与Nvidia的合作,将为我们的工业高性能计算客户带来强大的AI新功能。”
Rescale表示,企业组织依赖他们的平台进行医学研究、飞机开发和芯片设计。而且,Rescale利通过从1亿多个高性能计算工作负载中收集元数据,开发了新的CRE基础设施优化工具。
好文章,需要你的鼓励
Roig Arena 将于 2025 年 9 月在瓦伦西亚开业,借助 Extreme Networks 的 6GHz Wi-Fi 与数据分析技术,实现无缝运营与个性化观众体验,打造全天候活动中心。
这项研究首次系统研究了大语言模型在表达不确定性时的"忠实度"问题,发现它们往往在不确定时仍使用肯定语言,导致用户过度信任。研究团队提出了MetaFaith方法,通过激发模型的"元认知"能力,使其能更诚实地表达不确定性。在14种模型和10个数据集的测试中,MetaFaith将忠实度提升了高达61%,且83%的情况下被人类评为更可靠。这一突破对构建更值得信任的AI系统具有重要意义。
OpenMamba 是一款意大利独立滚动更新的 Linux 发行版,基于 Fedora 工具构建,提供 KDE Plasma 与 LXQt 桌面。它采用最新组件和标准打包工具,运行稳定且易用,适合规避主流系统限制的用户。
这项研究提出了强化蒸馏(REDI)框架,创新性地利用大型语言模型生成的正确和错误推理过程进行训练。传统方法仅使用正确样本,浪费了包含宝贵信息的错误样本。REDI采用两阶段方法:先用正确样本建立基础,再通过非对称加权的目标函数利用错误样本进一步优化。实验表明,仅用131k个公开数据样本训练的Qwen-REDI-1.5B模型在MATH-500等基准上达到83.1%准确率,与使用800k专有数据训练的同类模型相当或更优,为小型模型离线学习复杂推理能力提供了高效途径。