Nvidia今天早些时候推出了一款新的GPU加速平台,该平台能够处理更大量的数据以应对深度学习和机器学习。Nvidia希望借此巩固自己在人工智能方面的领先地位。
RAPIDS背后的理念是为企业带来性能提升,从而帮助他们客服依赖于处理大量数据的“高度复杂的业务挑战”,例如预测信用卡欺诈、预测零售库存以及了解消费者购买行为等,Nvidia这样表示。
GPU已经成为AI工作负载(如深度学习和机器学习)的必要工具,因为GPU能够提供比常规CPU更强大的处理能力。但Nvidia人工智能基础设施产品负责人Jeffrey Tseng在慕尼黑举行的Nvidia GPU技术大会之前表示,企业仍需要更多处理能力来应对要求最苛刻的工作负载。
Tseng表示:“如今的企业正在变得越来越多地以数据为驱动。数据分析和机器学习现在是领先的高性能计算领域,但是我们在使用数据方面遇到了障碍。”
开源RAPIDS平台的主要组件是一套CUDA加速库,用于基于GPU的分析、机器学习和数据可视化。 Tseng表示,Nvidia将启用5个最受欢迎的机器学习库并加速自己的GPU。Nvidia称,这样做可以通过更多迭代来优化AI训练,从而提高模型的准确性。
Nvidia表示,这些库为数据科学家提供了在GPU上运行整个数据管道所需的工具。RAPIDS平台采用XGBoost机器学习算法,该算法用于在Nvidia DGX-2系统上训练数据模型,结合了16个完全互连GPU硬件的DGX-2,可提供高达2 petaflops的处理能力。结果是,与在CPU系统上进行训练相比,数据科学家可以将深度学习和机器学习算法训练减少50倍。
“我们看到,这个新软件平台和我们发布的硬件让训练时间大幅缩减,基础设施成本降低,”Tseng说。
Nvidia得到了众多大型科技企业的信任,这些企业都已经开始采用RAPIDS平台,其中就包括数据库巨头Oracle,Oracle通过Nvidia云在其Oracle Cloud Infrastructure上支持RAPIDS。Nvidia表示,Oracle还致力于在Oracle Data Science Cloud上支持RAPIDS平台。
另外还有IBM公司,IBM宣布通过IBM Cloud、PowerAI on IBM POWER9、IBM Watson Studio以及Watson Machine Learning服务在私有云、公有云、混合云和多云环境中支持RAPIDS。与此同时,大数据公司Databricks也表示将使用RAPIDS加速Apache Spark工作负载。
Databricks联合创始人兼首席技术专家Matei Zaharia表示:“我们有多个正在进行的项目可以更好地将Spark与原生加速器集成,包括Apache Arrow支持和使用Project Hydrogen进行GPU调度。我们相信RAPIDS是一个令人兴奋的新机会,可以扩展客户的数据科学和人工智能工作负载。”
Nvidia表示,HPE、思科、戴尔和联想等厂商也将在自己的系统上支持RAPIDS。
Moor Insights&Strategy分析师Patrick Moorhead表示,Nvidia通过RAPIDS试图让那些对运行AI工作负载感兴趣的企业更容易访问GPU。
Moorhead表示:“Nvidia在获得AWS和Azure这样的超大规模数据中心厂商新任将深度学习和机器学习整合到他们的工作流方面取得了很大的成功。RAPIDS让企业更好地使用那些和IBM、HPE等厂商更容易实现Nvidia加速所使用的相同的功能。”
Constellation Research首席分析师兼副总裁Holger Mueller表示,如果能够做到这一点,Nvidia未来几年将会很好地主导市场上的人工智能工作负载。他说这一切都是为了创造出色的硬件和软件组合以优化加速这些工作负载, Nvidia RAPIDS平台是做到这一点的最好成果之一。
Mueller说:“从硬件方面看,对于Nvidia来说很明显它必须赢得开发人员和数据科学家的心,打造一个广泛采用的软件平台。RAPIDS是这一策略的一次重大尝试,但我们必须等待,看看开发人员、数据科学家以及最重要的CxO,他们是否能够对下一代应用平台做出决策。”
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。