大多数人对Uber在人工智能领域的认知可能都来自于自动驾驶,但实际上Uber在人工智能底层技术上也有卓越的贡献,其开源的分布式深度学习框架Horovod是世界上最优秀的人工智能训练加速框架之一,数以万计的人工智能开发者和组织从中受益。8月28日,在北京举行的2019人工智能计算大会(AICC2019)上,Uber深度学习平台经理宁旭将在大会主论坛上分享如何更好的使用Horovod加速AI模型训练。
Horovod实质上是Uber开发并开源的一套先进的分布式系统,它并不依赖于某个框架,而是采用目前业界广泛认可的基于环形All-reduce通信的同步SGD算法,通过计算与通信异步、梯度合并、梯度压缩等设备间通信优化手段,完成allreduce、allgather等集体操作通信工作。这一特性使得Horovod可以非常方便地与主流深度学习框架TensorFlow、PyTorch、 MXNet等进行匹配,在大规模GPU集群上的训练性能远高于原生框架的训练性能,提供非常高效的分布式训练性能加速。Horovod的另一大优点在于其提供的接口极为简单,用户只需修改几行代码,就可实现显著的训练性能提升。
Horovod之所以受到越来越多AI开发者与研究机构的青睐,其背后的原因在于越来越多的机器学习模型对数据和计算能力需求急剧增加。在大部分情况下,AI模型可以在单个或多GPU平台的服务器上运行,但随着数据集的增大和训练时间的增长,有时训练需要一周甚至更长时间。因此,AI开发者们不得不寻求分布式训练方法来缩短模型训练的时间。
Uber目前已经将深度学习应用到了很多公司业务中,从自动驾驶搜索路线到防御欺诈等。Uber深度学习平台经理宁旭认为,训练现代复杂的深度学习模型需要大量的计算。将计算扩展到多个GPU面临两大挑战:低成本、高效的GPU间通信库,以及用户代码可能会出现较大的更改。而Horovod成功地解决了这两大难题。
在AICC2019上,宁旭将带来《利用Horovod进行分布式深度学习》的主题演讲,不仅将现场分享如何通过Horovod在TensorFlow、Keras、PyTorch和MXNet中实现更快、更轻松的分布式训练,讲解Horovod的操作方法,同时也将披露Uber最近在橡树岭国家实验室进行的一项案例研究,讲述Horovod在世界上最快的超级计算机上实现百亿亿级计算。
宁旭曾带领Uber大数据和基础设施领域的团队负责一些开源项目,在机器学习、深度学习、大数据和大规模计算、网络、存储问题方面有丰富的经验。在加入Uber之前,宁旭曾在Facebook、Akamai和Microsoft以及几家初创公司工作。
本届AICC 2019可谓精彩纷呈,核心板块为主论坛与自动驾驶、产业AI创新、AI计算与基准测试、AI+视觉计算、AI+创投五大主题论坛,其中主论坛嘉宾云集了来自中国工程院、英国皇家工程院、百度、中国新一代人工智能发展战略研究院、浪潮、Facebook等机构的AI产学研顶尖专家学者,共聚一堂解读AI产业趋势,分享前沿AI计算技术。大会同期举行的AI千人训练营将邀请百度、平安科技、浪潮的资深AI工程师讲解最新AI计算技术与应用,帮助学员从零入门AI。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。