2021年12月12日,中国上海—— 今天,在2021 Wave Summit+上百度深度学习平台飞桨正式发布在Graphcore IPU上实现训练和推理全流程支持的开源代码库,飞桨模型库如Bert、ERNIE等也正逐步在IPU上实现支持。自此,百度飞桨的开发者可以在IPU这一专为机器智能从零设计的创新架构上进行AI模型加速,而IPU的全球用户也可以使用百度飞桨框架探索深度学习。对Graphcore而言,此举将极大地扩展IPU的中文社区,中文生态系统进一步繁荣。
百度飞桨是中国领先的产业级深度学习平台,目前累计开发者数量超过406万,服务企业数量15.7万家,创建了超过47.6万个模型,为中国AI社区的繁荣做出巨大贡献。Graphcore是飞桨硬件生态圈的初始成员之一,作为飞桨的重要硬件合作伙伴,Graphcore将通过云端和数据中心的IPU技术助力飞桨开发者实现AI模型的大幅加速,同时为使用飞桨的企业提供基于IPU的产品方案,帮助飞桨的企业级客户提升数据中心效率。通过大幅提升模型的性能和运行速度,缩短研发周期,加快AI模型落地应用,同时降低计算成本。
目前Graphcore IPU支持通过飞桨完成大规模的模型训练任务,也支持通过飞桨推理库执行高性能的推理任务。双方团队通过在16个IPU组成的IPU-POD16上做数据并行与模型并行,并在Bert-Base模型上进行了精读和吞吐量验证,取得了良好的性能效果。结果证明,运行在IPU硬件上的百度飞桨解决方案,在目前主流的AI训练任务和前沿AI创新模型任务上,可以取得很好的加速效果。IPU良好的系统扩展性使得用户可以根据任务需求灵活进行性能扩展。
百度飞桨产品团队负责人赵乔表示:“Graphcore是百度飞桨一直以来的好朋友和重要伙伴,非常高兴宣布百度飞桨在Graphcore IPU上完成训练和推理的支持,这是我们飞桨硬件生态一次重要的升级。百度飞桨模型库中的模型如Bert在IPU上实现了很好的训练和推理性能。同时,Graphcore的深度学习引擎PopART具有的良好可用性,也支持飞桨在IPU上的适配变得简易。我们将和Graphcore深化合作,将飞桨模型库更多的模型迁移到IPU上,共同打造基于飞桨和IPU的世界级AI解决方案,赋能AI开发者和企业。”
随着Graphcore在中国不断深耕,其中文IPU社区和生态系统在不断扩大。此次引入百度飞桨深度学习平台,除了是其软件Poplar SDK的重要扩充,也为Graphcore客户,尤其是中国客户的工具箱中多放入一件重要工具。通过对百度飞桨的支持,Graphcore支持其客户能够在更多框架上进行探索,IPU硬件架构的潜能优势将得以进一步释放。
Graphcore中国工程总负责人、AI算法科学家金琛表示:“IPU对百度飞桨的支持,是Graphcore Poplar SDK的重要升级,也是IPU生态系统的一次重大更新。百度飞桨是中文AI社区的翘楚,通过与百度飞桨合作,我们希望能够扩大IPU中文社区,让更多中国的开发者能够打破传统硬件的桎梏,在IPU上进行创新突破,帮助他们解决棘手的深度学习难题。”
Graphcore中国工程总负责人、AI算法科学家金琛在2021 Wave Summit+上介绍IPU上的百度飞桨
百度飞桨和Graphcore IPU精神的相通之处,就是开源精神,将权力交给AI开发人员,使他们能够自由地进行创新。Graphcore制造硬件和开发软件都遵循这一宗旨。百度飞桨在IPU上相关的代码和模型代码资源已经在Graphcore GitHub和百度飞桨GitHub开源,在双方的GitHub以及Graphcore的官网开发者页面也附上了详细的教程。同时,使用了飞桨的Bert-Base也已经在Graphcore的Model Garden里开源,广大开发者可以前往双方的资源池进行探索、调取和使用。
好文章,需要你的鼓励
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
微软研究院推出SambaY架构,通过创新的门控记忆单元实现AI推理速度10倍提升。该技术采用解码器-混合-解码器设计,在数学推理等复杂任务上表现卓越,为高效AI推理开辟新方向,有望推动AI在教育、科研、医疗等领域的广泛应用。
Dfinity基金会发布Caffeine AI平台,通过自然语言提示创建功能完整的应用程序,旨在将全球开发者数量从5000万扩展到50亿。该平台基于区块链技术,用户可通过对话方式快速构建应用,包括博客和电商网站等。与Anthropic合作提供后端支持,挑战传统应用商店模式。
瑞士EPFL研究团队开发的PERK方法通过参数高效的测试时学习技术,让AI能够像人类一样将长文档信息编码到专门的记忆模块中,显著提升了长上下文推理能力。该方法在多项测试中表现卓越,不仅能处理比训练时长32倍的文档,还解决了传统AI的位置偏见问题,为处理复杂长文档提供了创新解决方案。