大多数人对Uber在人工智能领域的认知可能都来自于自动驾驶,但实际上Uber在人工智能底层技术上也有卓越的贡献,其开源的分布式深度学习框架Horovod是世界上最优秀的人工智能训练加速框架之一,数以万计的人工智能开发者和组织从中受益。8月28日,在北京举行的2019人工智能计算大会(AICC2019)上,Uber深度学习平台经理宁旭将在大会主论坛上分享如何更好的使用Horovod加速AI模型训练。
Horovod实质上是Uber开发并开源的一套先进的分布式系统,它并不依赖于某个框架,而是采用目前业界广泛认可的基于环形All-reduce通信的同步SGD算法,通过计算与通信异步、梯度合并、梯度压缩等设备间通信优化手段,完成allreduce、allgather等集体操作通信工作。这一特性使得Horovod可以非常方便地与主流深度学习框架TensorFlow、PyTorch、 MXNet等进行匹配,在大规模GPU集群上的训练性能远高于原生框架的训练性能,提供非常高效的分布式训练性能加速。Horovod的另一大优点在于其提供的接口极为简单,用户只需修改几行代码,就可实现显著的训练性能提升。
Horovod之所以受到越来越多AI开发者与研究机构的青睐,其背后的原因在于越来越多的机器学习模型对数据和计算能力需求急剧增加。在大部分情况下,AI模型可以在单个或多GPU平台的服务器上运行,但随着数据集的增大和训练时间的增长,有时训练需要一周甚至更长时间。因此,AI开发者们不得不寻求分布式训练方法来缩短模型训练的时间。
Uber目前已经将深度学习应用到了很多公司业务中,从自动驾驶搜索路线到防御欺诈等。Uber深度学习平台经理宁旭认为,训练现代复杂的深度学习模型需要大量的计算。将计算扩展到多个GPU面临两大挑战:低成本、高效的GPU间通信库,以及用户代码可能会出现较大的更改。而Horovod成功地解决了这两大难题。
在AICC2019上,宁旭将带来《利用Horovod进行分布式深度学习》的主题演讲,不仅将现场分享如何通过Horovod在TensorFlow、Keras、PyTorch和MXNet中实现更快、更轻松的分布式训练,讲解Horovod的操作方法,同时也将披露Uber最近在橡树岭国家实验室进行的一项案例研究,讲述Horovod在世界上最快的超级计算机上实现百亿亿级计算。
宁旭曾带领Uber大数据和基础设施领域的团队负责一些开源项目,在机器学习、深度学习、大数据和大规模计算、网络、存储问题方面有丰富的经验。在加入Uber之前,宁旭曾在Facebook、Akamai和Microsoft以及几家初创公司工作。
本届AICC 2019可谓精彩纷呈,核心板块为主论坛与自动驾驶、产业AI创新、AI计算与基准测试、AI+视觉计算、AI+创投五大主题论坛,其中主论坛嘉宾云集了来自中国工程院、英国皇家工程院、百度、中国新一代人工智能发展战略研究院、浪潮、Facebook等机构的AI产学研顶尖专家学者,共聚一堂解读AI产业趋势,分享前沿AI计算技术。大会同期举行的AI千人训练营将邀请百度、平安科技、浪潮的资深AI工程师讲解最新AI计算技术与应用,帮助学员从零入门AI。
好文章,需要你的鼓励
Amazon旗下秘密研发机构Lab126新成立团队,专注在机器人上嵌入自主代理AI,实现通过自然语言完成复杂任务,从而提升仓储物流与配送效率,同时开发高精度地图技术。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。