数据科学家如今可在Microsoft Azure使用NVIDIA的数据科学加速库——NVIDIA CUDA-X AI,将机器学习项目加速20倍。
只需点击几下,无论规模大小的企业就都能够实现数据科学加速,以前所未有的速度将海量数据转化为自身的竞争优势。
Microsoft Azure Machine Learning(AML)服务是首个集成RAPIDS的主流云平台,RAPIDS是NVIDIA CUDA-X AI的一个关键组件。通过访问RAPIDS开源库套件,数据科学家就能使用AML服务上的NVIDIA GPU,以前所未有的速度进行预测分析。
AML服务上的RAPIDS能够为企业带来大幅度的性能提升。各行各业的众多企业都在使用机器学习,基于其所拥有的海量数据创建预测性AI模型,其中包括希望更好地管理库存的零售商,希望更明智地进行财务预测的金融机构,以及希望更快地进行疾病检测并降低管理成本的医疗机构。
在AML服务上使用RAPIDS的企业能够将AI模型训练速度提升高达20倍,将训练时间从数天缩短至数小时,或从数小时缩短到数分钟,具体取决于其数据集大小。这也是首次将RAPIDSS原生集成到云端数据科学平台上。
沃尔玛是率先采用RAPIDS的企业之一,借助其提高了预测的准确性。
沃尔玛供应链技术与云高级副总裁Srini Venkatesan表示:“RAPIDS软件有望使我们的重点工程流程实现规模化扩展,让我们能够运行最复杂的机器学习模型,进一步提高预测准确性。我们很高兴Azure Machine Learning服务能够与NVIDIA合作,为数据科学家提供RAPIDS和GPU计算,让我们能够在Azure云端运行RAPIDS。”
AML服务上的RAPIDS以Jupyter Notebook的形式提供,使用AML服务SDK创建资源组、工作区、集群、拥有正确配置的环境、以及可供使用的RAPIDS代码库。提供的模板脚本使用户能够尝试不同的数据大小和GPU数量并设置CPU基线。
微软Azure AI企业公司副总裁Eric Boyd表示: “我们的愿景是为客户提供最佳的技术,帮助他们为其工作带来变革。Azure Machine Learning服务是用于构建和部署机器学习模型的领先平台,我们很高兴能帮助数据科学家通过Azure与NVIDIA GPU加速技术的结合,实现显著的性能提升。”
好文章,需要你的鼓励
Quobyte发布GPU融合存储解决方案,通过整合GPU服务器现有驱动器创建共享存储池,将数据更靠近GPU处理单元。该技术利用GPU服务器中闲置的CPU、内存和NVMe存储资源,消除外部存储阵列需求,降低延迟并提升数据传输速度。系统具备容错能力,可应对GPU节点频繁重启和故障。相比传统架构,该方案可显著降低基础设施成本和功耗,每增加一个GPU节点即可自动扩展存储容量和吞吐量。
艾伦人工智能研究所开发的olmOCR 2通过创新的单元测试训练方法,将文档识别准确率提升至82.4%,在处理复杂数学公式、表格和多栏布局方面表现卓越。该系统采用强化学习和合成数据生成技术,实现了完全开源,为全球研究者提供了先进的OCR解决方案,推动了AI技术民主化发展。
英国泰恩港在部署爱立信私有5G网络一年后取得显著运营成果。该港口占地620英亩,是英国主要深水港之一。私有5G网络基于BT频谱和爱立信基础设施,支持实时视频分析、传感器驱动流程和互联机械设备。网络已应用于集装箱扫描、个人防护设备监控、受限区域检测、道路状况分析等多个场景,并与卡特彼勒合作实现远程控制铲车作业,显著提升了安全性和运营效率。
苹果公司发布了包含40万张图片修改案例的AI训练数据集Pico-Banana-400K,涵盖35种修图操作类型。该数据集采用严格质量控制,包含成功失败案例对比和多轮修图场景。研究显示AI在全局修改方面表现优秀,但精细操作仍有挑战。这为AI修图技术发展奠定基础,未来将让修图软件更智能易用。