此次收购将推进英特尔的人工智能战略,并增强数据中心人工智能加速器产品组合
2019年12月16日,美国加州圣克拉拉——英特尔公司今天宣布以20亿美元收购Habana Labs。该公司总部位于以色列,是一家为数据中心提供可编程深度学习加速器的厂商。此次收购将增强英特尔的人工智能产品组合,并加快其在快速增长的人工智能芯片新兴市场的发展。英特尔预计,到2024年,这一市场规模将超过250亿美元 。
英特尔数据平台事业部执行副总裁兼总经理孙纳颐(Navin Shenoy)认为:“此次收购推进了我们的人工智能战略,即:从智能边缘到数据中心,为客户提供适合各种性能需求的解决方案。具体来说,通过高性能训练处理器系列产品和基于标准的编程环境,Habana Labs大大增强了我们数据中心人工智能产品的实力,以应对不断变化的人工智能负载。”
英特尔的人工智能战略基于这样一个信念:要想充分利用人工智能的力量来改进业务成果,就需要广泛的软硬件技术组合以及完整的生态系统支持。现在,英特尔人工智能解决方案正在帮助客户把数据转化为业务价值,并为公司带来可观的收入。2019年,英特尔预计人工智能业务带动的收入将超过35亿美元,同比增长20%以上。英特尔和Habana将共同为数据中心加速带来一流的人工智能产品,满足客户不断变化的需求。
孙纳颐同时表示:“我们了解到,客户们在寻求易于编程的专用人工智能解决方案时,也需要在各种工作负载和神经网络拓扑上拥有卓越的可扩展性能,而Habana在这些方面的骄人纪录有目共睹,因此我们很高兴Habana这样的人工智能团队加入英特尔。我们整合后的知识产权和专业知识,将为数据中心的人工智能工作负载提供无与伦比的计算性能和效率。”
收购完成后,Habana将作为一个独立的业务部门,并将继续由当前管理团队来领导。Habana将向英特尔数据平台事业部报告,该事业部也是英特尔广泛的数据中心人工智能技术的大本营。此次收购将使Habana能够充分利用英特尔人工智能能力,其中包括过去三年人工智能软件、算法和研究方面的深厚专业知识和积累的大量资源,将有助于Habana不断扩展并加速发展。
Habana董事长Avigdor Willenz同意担任该业务部门以及英特尔的高级顾问。Habana的总部将继续设于以色列不变,该地英特尔也有长期投资和布局。此次交易之前,英特尔投资是Habana的投资方。
Habana首席执行官David Dahan表示:“由于之前就有英特尔的投资,我们很幸运能够了解英特尔的业务并与之合作,如今,我们很高兴正式加入英特尔大家庭。英特尔创建了世界一流的人工智能团队和能力。我们很高兴与英特尔合作,加快并扩展我们的业务。携起手来,我们将更快地为客户带来更多人工智能创新。”
展望未来,英特尔计划充分利用不断增长的人工智能技术产品组合和人工智能人才,为客户的人工智能工作负载提供无与伦比的计算性能和效率。
Habana的Gaudi人工智能训练处理器目前正在为特定超大规模客户提供样品。与使用同等数量GPU构建的系统相比,基于Gaudi的大节点训练系统的吞吐量预计将增加4倍。Gaudi旨在让系统实现高效灵活的横向、纵向扩展。
此外, Habana的Goya人工智能推理处理器已实现商用,其在极具竞争力的包络功率中具有超大的吞吐量和超低的实时延迟,由此展现出自身卓越的推理性能。随着人工智能工作负载的不断增加,对计算、内存和连接的要求也越来越高,Gaudi训练产品和Goya推理产品能够提一个丰富的、易于编程的开发环境,能够帮助客户部署差异化解决方案。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。