至顶网服务器频道 12月04日 新闻消息(文/李祥敬):在这个数据无处不在的时代,如何从数据中获取价值成为企业的重要课题。有数据显示,面向数据科学和机器学习的服务器市场每年价值约为200亿美元,加上科学分析和深度学习市场,高性能计算市场总价值大约为360亿美元,且该市场还在持续快速发展。
在NVIDIA看来,数据分析和机器学习是高性能计算市场中最大的细分市场,不过目前尚未实现加速。NVIDIA解决方案架构与工程团队副总裁Marc Hamilton告诉记者,数据科学在2010年变得非常兴盛,但是那个时候CPU的计算力已经没办法满足数据科学家的需求了。数据规模越来越大,但是计算力并没有相应发展,等待时间也是越来越长。于是,NVIDIA推出了开源GPU加速平台——RAPIDS,为数据科学家提供标准化的流水线式工具。
在当前的人工智能浪潮中,深度学习与机器学习是两个重要的技术。在Marc看来,深度学习在处理非结构化数据(比如语音、图像等)上的效果更好,而机器学习却在结构化数据处理上效果更好。RAPIDS把深度学习的能力扩展到了大数据领域。
也就是说,RAPIDS把GPU最为擅长的深度学习优势也带到了机器学习领域,让企业在处理结构化数据方面与在处理非结构化数据方面同样获得GPU的加速。据悉,最初的RAPIDS基准分析利用了XGBoost机器学习算法在NVIDIA DGX-2系统上进行训练,结果表明,与仅有CPU的系统相比,其速度能加快50倍。这可帮助数据科学家将典型训练时间从数天减少到数小时,或者从数小时减少到数分钟。
RAPIDS平台通过加速cuDF、cuML、cuGRAPH库,英伟达能够让GPU加速计算应用到更多机器学习的算法与场景当中,为数据科学家提供标准化的流水线式工具。比如在数据处理方面,RAPIDS将会通过数据准备、数据合并、数据降维三个步骤加速处理数据。
Marc表示,RAPIDS底层由CUDA支撑。他强调,RAPIDS加速有不同方式,一种方式是在CUDA上对软件进行重新编程,第二种方式是使用CUDA软件库、cuML及机器学习的软件库,用来加速XGBOOST。第三种加速方式是在软件应用层面的加速,比如:SAP或者Oracle的某些软件功能已经可以通过GPU加速。
RAPIDS采用了开源的方式,可以非常完美地运行在GPU云平台,数据科学家只需要下载RAPIDS代码,就可以使用机器学习,不需要对现有代码进行太多修改。而且RAPIDS会保持不断更新,用户也可以将自己的需求反馈给NVIDIA,新的功能会不断加入到新版本中,满足用户的需求。
目前英伟达正在广泛地与开源生态系统贡献者展开合作,其中包括Anaconda、BlazingDB、Databricks、Quansight等,将更多的机器学习库和功能引入RAPIDS。为了推动RAPIDS的广泛应用,英伟达正努力将RAPIDS与分析及数据科学方面领先的开源框架Apache Spark进行整合。
在落地应用方面,RAPIDS目前已经被非常广泛采用,比如华大基因、中国移动、平安科技等中国公司都宣布引入它进行机器学习加速。例如,平安科技使用RAPIDS以及GPU加速的PCA和DBSCAN之后,工作流程执行速度加快了80倍,从几天缩短到几小时(包括数据加载和训练时间),这有助于该公司主动做出预测并完善预防计划。
华大基因使用XGBoost机器学习算法,对用于癌症患者个性化免疫治疗的靶向多肽进行分类。他们在NVIDIA DGX-1 AI超级计算机上运行RAPIDS平台,将分析速度提高了17倍,并将多肽的分析范围扩大至数百万种。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。