2022年5月20日,中国北京——今日,Graphcore®(拟未)在Wave Summit 2022深度学习开发者峰会上正式宣布加入硬件生态共创计划。Graphcore和百度飞桨将基于该共创计划共同研发技术方案,协同定制飞桨框架,建设模型库与场景范例,以“IPU+飞桨”为产业赋能,推动产业AI化转型和升级。目前,Poplar® SDK 2.3与百度飞桨2.3已经完全集成,相关代码将于今日在百度飞桨的GitHub上线供开发者获取。
百度飞桨是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。截至2022年5月,百度飞桨已经汇聚了477万开发者,创建56万个AI模型,累计服务18万家企事业单位。硬件生态共创计划是飞桨“大航海”计划2.0的重要部分之一。Graphcore作为计划的参与成员之一,将协同百度飞桨进一步建设基于IPU的百度飞桨框架,丰富面向云和数据中心、互联网、金融、医疗和生命科学、汽车、教育、智慧零售等各个AI领域应用场景的模型库与场景范例,以IPU加速AI技术在各领域的创新和应用。
Graphcore是百度飞桨硬件生态圈的初始成员之一,是百度飞桨重要的硬件合作伙伴。2021年,百度飞桨就已经实现了在Graphcore IPU上训练与推理的全面支持,并开源了相关代码。双方团队就在IPU-POD16上进行数据并行与模型并行,以及在Bert-Base模型上进行精读和吞吐量验证取得了良好的性能效果。结果证明,运行在IPU硬件上的百度飞桨解决方案,在目前主流的AI训练任务和前沿AI创新模型任务上,可以取得很好的加速效果。最近,Graphcore发布了以世界首款3D WoW处理器Bow IPU为核心的Bow系统。和上一代产品相比,Bow系统可以在无需更改现有代码的情况下提供40%的性能提升和16%的电源效率提升。百度飞桨开发者无需更改现有代码,就可以自上一代IPU系统迁移到最新的Bow系统,以Bow系统的强大性能加速开发进程。
Graphcore中国工程副总裁、AI算法科学家金琛表示:“百度飞桨作为优秀的产业级深度学习平台,受到了广大开发者的青睐并被广泛采用。它在深耕自身领域的同时,充分发挥平台作用,携手合作伙伴共建生态,为共创工具、模型、产业案例与实践经验提供了基座。Graphcore很高兴能够不断深化与百度飞桨的合作,充分发挥IPU的加速作用,让高效AI算力顺畅地流通,为百度飞桨开发者提供计算支持,携手赋能各领域产业AI化的转型和升级。”
百度飞桨产品团队负责人赵乔表示:“Graphcore是百度飞桨长期以来的重要合作伙伴。Graphcore的IPU系统和Poplar软件在我们双方的合作中展现出了令人印象深刻的易用性、灵活性和可扩展性,在自然语言处理、计算机视觉、语音等AI领域都展示出了显著的加速效果,在许多应用场景都展现出了巨大的应用潜力。我们期待在硬件生态共创计划中与Graphcore进一步深化合作,共同推进AI技术的应用,以AI赋能各产业的创新和发展。”
未来,Graphcore和百度飞桨计划围绕百度飞桨在Bow系统上的应用展开探索,通过技术的不断升级和功能体验的持续优化赋能加速AI产业落地,实现生态繁荣共赢。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。