大多数人对Uber在人工智能领域的认知可能都来自于自动驾驶,但实际上Uber在人工智能底层技术上也有卓越的贡献,其开源的分布式深度学习框架Horovod是世界上最优秀的人工智能训练加速框架之一,数以万计的人工智能开发者和组织从中受益。8月28日,在北京举行的2019人工智能计算大会(AICC2019)上,Uber深度学习平台经理宁旭将在大会主论坛上分享如何更好的使用Horovod加速AI模型训练。
Horovod实质上是Uber开发并开源的一套先进的分布式系统,它并不依赖于某个框架,而是采用目前业界广泛认可的基于环形All-reduce通信的同步SGD算法,通过计算与通信异步、梯度合并、梯度压缩等设备间通信优化手段,完成allreduce、allgather等集体操作通信工作。这一特性使得Horovod可以非常方便地与主流深度学习框架TensorFlow、PyTorch、 MXNet等进行匹配,在大规模GPU集群上的训练性能远高于原生框架的训练性能,提供非常高效的分布式训练性能加速。Horovod的另一大优点在于其提供的接口极为简单,用户只需修改几行代码,就可实现显著的训练性能提升。
Horovod之所以受到越来越多AI开发者与研究机构的青睐,其背后的原因在于越来越多的机器学习模型对数据和计算能力需求急剧增加。在大部分情况下,AI模型可以在单个或多GPU平台的服务器上运行,但随着数据集的增大和训练时间的增长,有时训练需要一周甚至更长时间。因此,AI开发者们不得不寻求分布式训练方法来缩短模型训练的时间。
Uber目前已经将深度学习应用到了很多公司业务中,从自动驾驶搜索路线到防御欺诈等。Uber深度学习平台经理宁旭认为,训练现代复杂的深度学习模型需要大量的计算。将计算扩展到多个GPU面临两大挑战:低成本、高效的GPU间通信库,以及用户代码可能会出现较大的更改。而Horovod成功地解决了这两大难题。
在AICC2019上,宁旭将带来《利用Horovod进行分布式深度学习》的主题演讲,不仅将现场分享如何通过Horovod在TensorFlow、Keras、PyTorch和MXNet中实现更快、更轻松的分布式训练,讲解Horovod的操作方法,同时也将披露Uber最近在橡树岭国家实验室进行的一项案例研究,讲述Horovod在世界上最快的超级计算机上实现百亿亿级计算。
宁旭曾带领Uber大数据和基础设施领域的团队负责一些开源项目,在机器学习、深度学习、大数据和大规模计算、网络、存储问题方面有丰富的经验。在加入Uber之前,宁旭曾在Facebook、Akamai和Microsoft以及几家初创公司工作。
本届AICC 2019可谓精彩纷呈,核心板块为主论坛与自动驾驶、产业AI创新、AI计算与基准测试、AI+视觉计算、AI+创投五大主题论坛,其中主论坛嘉宾云集了来自中国工程院、英国皇家工程院、百度、中国新一代人工智能发展战略研究院、浪潮、Facebook等机构的AI产学研顶尖专家学者,共聚一堂解读AI产业趋势,分享前沿AI计算技术。大会同期举行的AI千人训练营将邀请百度、平安科技、浪潮的资深AI工程师讲解最新AI计算技术与应用,帮助学员从零入门AI。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。