在数据分析、机器学习和深度学习领域中工作的数据科学家们将能够借助NVIDIA全新CUDA-X AI库实现速度的大幅提升。
CUDA-X能够充分利用Tensor Core GPU的延展性,为以下领域提供加速:
CUDA-X加速数据科学。
在本届NVIDIA的GTC大会上推出的CUDA-X AI是唯一针对数据科学加速的端到端平台。
随着企业转而采用深度学习、机器学习和数据分析等人工智能技术来更有效地利用数据, CUDA-X AI也应运而生。
适用于数据处理、功能判定、训练、验证和部署的典型工作流程,CUDA-X AI让我们能够充分利用NVIDIA Tensor Core GPU的延展性来独特地处理此类端到端的AI管道。
CUDA-X AI包含十几个专用加速库,能够将机器学习和数据科学工作负载加速至高达50倍。它已经在通过cuDF加速数据分析;通过cuDNN加速深度学习原语;通过cuML加速机器学习算法;通过DALI加速数据处理等。
这些库结合在一起,就能够为典型AI工作流程中的每一步提供加速,无论是使用深度学习来训练语音和图像识别系统,还是通过数据分析来评估抵押贷款组合的风险状况。这些工作流程中的每一步都需要处理大量数据,且每一步都能够受益于GPU加速计算。
因此,CUDA-X AI已得到渣打银行、微软、PayPal、SAS和沃尔玛等顶尖公司所采用。它已集成至主流深度学习框架中,如TensorFlow、PyTorch和MXNet。全球主要云服务提供商均在使用CUDA-X AI来加速自身云服务。今日,全球八大计算机制造商宣布其数据科学工作站和服务器经优化后能够运行NVIDIA的CUDA-X AI库。
CUDA-X AI加速库可单独下载,亦作为NVIDIA NGC软件中心的容器化软件堆栈提供,均为免费。
其可部署于任何地方,包括台式机、工作站、服务器和云计算平台。
于昨日GTC发布的所有数据科学工作站中均已集成CUDA-X AI。且昨日发布的所有NVIDIA T4服务器均经优化,能够运行CUDA-X AI。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。