Nvidia近日表示,Nvidia AI超级计算平台最先进的版本Nvidia DGX Cloud现在已经与Nvidia AI Enterprise软件套件一起在Oracle Cloud Marketplace中提供了。
在Oracle云基础设施上发布Nvidia DGX Cloud,将为客户提供访问Nvidia最强大GPU的一种方法,用于以训练生成式AI和其他工作负载。Nvidia表示,在今年3月Nvidia GTX大会上宣布推出的Nvidia DGX Cloud AI是一项云托管的AI超级计算服务,可以立即提供客户开始训练强大生成式AI和其他应用所需的一切。
该服务基于Nvidia广受欢迎的DGX平台,后者是一种专用硬件产品,企业可以购买并设置运行在自己的本地数据中心。企业借助DGX Cloud就不再需要等待购买昂贵且经常需求的平台,而是可以按月租用AI工作负载所需的基础设施。换句话说,Nvidia正在向更多企业提供Nvidia的AI超级计算机,包括那些无力自行部署和管理其系统的企业。
Nvidia解释说,DGX Cloud的每个实例都可以提供8个80 GB Tensor Core GPU,这意味着每个节点都有640 GB的GPU内存。该平台构建在高性能、低延迟的网络结构之上,以确保工作负载可以跨互连系统集群进行扩展。通过这种方式,多个DGX Cloud实例就可以充当一个巨大的GPU来处理最苛刻的工作负载。
DGX Cloud平台与Nvidia AI Enterprise软件搭配,让客户能够访问100多个AI框架和预训练模型,以便他们可以针对特有的、特定领域的任务构建、完善和操作定制的大型语言模型和其他基于自己专有数据训练的生成式AI模型。
Nvidia表示,从今天开始,客户可以通过Oracle Cloud Marketplace访问Nvidia DGX Cloud AI。客户将可以使用Nvidia Base Command Platform与硬件交互,平台让开发人员可以通过网络浏览器访问AI超级计算功能。通过提供客户AI基础设施的单一窗格视图,Base Command Platform简化了多节点集群的管理。
Nvidia表示,客户将能够快速构建他们的生成式AI应用,并将其轻松部署Oracle Cloud Infrastructure或他们自己的本地平台上,从而更容易采用混合云策略。
配合此次发布,Nvidia分享了一个客户成功案例,称纽约州北部的奥尔巴尼大学最近在Oracle基础设施上使用了Nvidia DGX Cloud AI,作为其AI Plus计划的基础。该计划将AI教学与学习整合到大学的研究和学术事业中,涉及网络安全、天气预报、健康数据分析、药物发现和下一代半导体设计等领域。奥尔巴尼大学方面表示,正在Oracle云上使用Nvidia的平台来构建自己的本地超级计算机。
奥尔巴尼大学负责研究和经济发展的副校长Thenkurussi Kesavadas表示:“我们正在加快实现将AI融入几乎所有学术和研究学科的使命之中。我们将推动医疗、安全和经济竞争力的进步,同时帮助学生在不断变化的就业市场中发挥作用。”
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
莫斯科高等经济学院研究员尼古拉·斯克里普科开发了IFEval-FC基准测试,专门评估大语言模型在函数调用中遵循格式指令的能力。研究发现,即使是GPT-5和Claude Opus 4.1等最先进模型,在处理看似简单的格式要求时准确率也不超过80%,揭示了AI在实际应用中的重要局限性。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室联合多家机构推出MinerU2.5文档解析模型,仅用12亿参数就在文本、公式、表格识别等任务上全面超越GPT-4o等大型模型。该模型采用创新的两阶段解析策略,先进行全局布局分析再做局部精细识别,计算效率提升一个数量级。通过重新定义任务标准和构建高质量数据引擎,MinerU2.5能准确处理旋转表格、复杂公式、多语言文档等挑战性内容,为文档数字化提供了高效解决方案。