全新产品使海量数据的迁移速度比之前快20倍
NVIDIA于今日发布NVIDIA Magnum IO软件套件。该产品让数据科学家及AI和高性能计算研究者可以在数分钟内处理好以往需要数小时才能处理完毕的海量数据。
Magnum IO专为解决存储和输入/输出(I/O)遇到瓶颈这一问题进行了优化。优化之后,执行财务分析、气候建模等复杂的、需要处理大量数据集的高性能计算工作负载时,多服务器、多GPU计算节点的数据处理速度比之前提高了20倍。
Magnum IO是NVIDIA与众多网络和存储行业领导企业(包括DataDirect Networks、Excelero、IBM、Mellanox和WekaIO)密切合作的成果。
NVIDIA创始人兼首席执行官黄仁勋表示:“AI等数据驱动型科学的核心是处理大量的数据,这些数据可能是收集来的,也可能是模拟的。然而,随着数据的规模和速度呈现指数级的增长,数据处理本身已成为数据中心所要面临的最大挑战,同时也是最主要的成本之一。”
他还表示:“顶级的计算需要顶级的I/O。Magnum IO能够为I/O与存储带来具有革命性计算性能的NVIDIA GPU加速。现在,AI研究者和数据科学家可以专心完成自己的工作,无需再等待数据。”
Magnum IO的核心是GPUDirect。它为数据提供了一条路径,这条路径可以绕过CPU,而在GPU、存储和网络设备所提供的“开放式高速公路”上进行传输。GPUDirect由点对点和RDMA组件组成,兼容多种通信互联产品与API,包括NVIDIA NVLink和NCCL以及OpenMPI和UCX。
其最新组件GPUDirect Storage使研究者能够在访问存储时绕过CPU,快速访问用于模拟、分析或可视化的数据文件。
NVIDIA Magnum IO软件现已上市,但GPUDirect Storage仅为部分用户提供了早期访问权限。NVIDIA计划在2020年上半年向所有客户提供GPUDirect Storage。
好文章,需要你的鼓励
Google Cloud 推出两项新的 AI 功能:一是面向数据科学家的 Data Science Agent,可在 Google Colab 中快速进行数据分析;二是面向医疗专业人士的 Vertex AI Search 多模态搜索功能,可更全面地分析患者健康信息。这些 AI 创新旨在提高数据分析效率和医疗诊断准确性,推动 AI 在科技和医疗领域的应用。
领先的 AI 公司正在采用"蒸馏"技术,以创造更便宜、更易采用的 AI 模型。这种技术在 DeepSeek 成功应用后引起广泛关注,引发了硅谷 AI 领导地位的动摇。蒸馏技术通过将大型语言模型的知识转移到小型模型中,实现了高效且经济的 AI 应用。这一突破为初创公司和开发者提供了更多机会,同时也对现有 AI 公司的商业模式构成了挑战。
人工智能公司 Anthropic PBC 今日宣布已完成一轮 35 亿美元的融资,估值达到 615 亿美元。这轮 E 轮融资在公司从 Google LLC 筹集 10 亿美元不到两个月后进行。两个月前,亚马逊公司将对 Anthropic 的投资翻倍至 80 亿美元。亚马逊网络服务自去年九月起成为该人工智能提供商的主要云服务商。