Nvidia近日表示,Nvidia AI超级计算平台最先进的版本Nvidia DGX Cloud现在已经与Nvidia AI Enterprise软件套件一起在Oracle Cloud Marketplace中提供了。

在Oracle云基础设施上发布Nvidia DGX Cloud,将为客户提供访问Nvidia最强大GPU的一种方法,用于以训练生成式AI和其他工作负载。Nvidia表示,在今年3月Nvidia GTX大会上宣布推出的Nvidia DGX Cloud AI是一项云托管的AI超级计算服务,可以立即提供客户开始训练强大生成式AI和其他应用所需的一切。
该服务基于Nvidia广受欢迎的DGX平台,后者是一种专用硬件产品,企业可以购买并设置运行在自己的本地数据中心。企业借助DGX Cloud就不再需要等待购买昂贵且经常需求的平台,而是可以按月租用AI工作负载所需的基础设施。换句话说,Nvidia正在向更多企业提供Nvidia的AI超级计算机,包括那些无力自行部署和管理其系统的企业。
Nvidia解释说,DGX Cloud的每个实例都可以提供8个80 GB Tensor Core GPU,这意味着每个节点都有640 GB的GPU内存。该平台构建在高性能、低延迟的网络结构之上,以确保工作负载可以跨互连系统集群进行扩展。通过这种方式,多个DGX Cloud实例就可以充当一个巨大的GPU来处理最苛刻的工作负载。
DGX Cloud平台与Nvidia AI Enterprise软件搭配,让客户能够访问100多个AI框架和预训练模型,以便他们可以针对特有的、特定领域的任务构建、完善和操作定制的大型语言模型和其他基于自己专有数据训练的生成式AI模型。
Nvidia表示,从今天开始,客户可以通过Oracle Cloud Marketplace访问Nvidia DGX Cloud AI。客户将可以使用Nvidia Base Command Platform与硬件交互,平台让开发人员可以通过网络浏览器访问AI超级计算功能。通过提供客户AI基础设施的单一窗格视图,Base Command Platform简化了多节点集群的管理。
Nvidia表示,客户将能够快速构建他们的生成式AI应用,并将其轻松部署Oracle Cloud Infrastructure或他们自己的本地平台上,从而更容易采用混合云策略。
配合此次发布,Nvidia分享了一个客户成功案例,称纽约州北部的奥尔巴尼大学最近在Oracle基础设施上使用了Nvidia DGX Cloud AI,作为其AI Plus计划的基础。该计划将AI教学与学习整合到大学的研究和学术事业中,涉及网络安全、天气预报、健康数据分析、药物发现和下一代半导体设计等领域。奥尔巴尼大学方面表示,正在Oracle云上使用Nvidia的平台来构建自己的本地超级计算机。
奥尔巴尼大学负责研究和经济发展的副校长Thenkurussi Kesavadas表示:“我们正在加快实现将AI融入几乎所有学术和研究学科的使命之中。我们将推动医疗、安全和经济竞争力的进步,同时帮助学生在不断变化的就业市场中发挥作用。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。