2022年7月4日,中国北京——Graphcore®(拟未)正式发布其参与MLPerf测试的最新结果。本次提交中,Graphcore使用新发布的Bow系统分别在图像分类模型ResNet-50和自然语言处理模型BERT上实现了和上次提交相比高达31%和37%的性能提升。此外,Graphcore还新增了语音转录模型RNN-T的提交。
本次MLPerf提交中,首次有第三方使用了Graphcore的系统。百度飞桨使用Graphcore系统进行了BERT的提交,并展现出和Graphcore的BERT提交几乎一致的性能,证明了Graphcore的IPU所提供的性能可以有效地跨框架复现,以及IPU生态进一步繁荣的潜力。
Graphcore此次在封闭分区面向ResNet-50和BERT两个模型提交了以3D WoW处理器Bow IPU为核心的Bow系统,包括Bow Pod16、Bow Pod64、Bow Pod128和Bow Pod256。和前代产品相比,Bow系统在提供更优性能的同时价格保持不变,进一步提升了Graphcore系统的性价比优势。结果显示,与上次提交相比,ResNet-50的训练时间提升高达31%,BERT的训练时间提升高达37%。
在GPU占据优势的模型ResNet-50上,Bow Pod16仅耗时19.6分钟,表现优于NVIDIA的旗舰产品DGX-A100 640GB所需的28.7分钟,再一次体现了Bow系统的性价比优势。
除此之外,Graphcore还提交了RNN-T在开放分区中的结果。RNN-T是一种进行高度准确的语音识别的精密方式,在移动设备上被广泛使用。在Bow Pod64上,RNN-T的训练时间可以从原本的几周缩短到几天。
Graphcore中国工程副总裁、AI算法科学家金琛表示:“对于本次MLPerf取得的出色成绩,我们感到非常自豪,这与Graphcore始终坚持创新密不可分。我们也非常高兴能够与百度飞桨联合进行提交,通过与百度飞桨的合作加速IPU生态系统的扩展,为产业赋能,推动各领域产业AI化转型和升级。未来,我们也将继续创新,应对不断增长的AI计算挑战,助力AI计算的演进。”
在本次MLPerf Training 2.0的提交中,百度飞桨使用Bow Pod16和Bow Pod64进行了BERT在封闭分区的提交,结果与Graphcore使用PopART进行提交的结果几乎一致。这充分证明了Graphcore IPU性能的跨框架复现能力。这一能力的实现得益于Graphcore灵活的硬件系统、持续优化的软件、强大的本地支持和合作伙伴的支持。正如此次提交,百度将Graphcore的Poplar®与飞桨软件框架相结合,实现了出色的性能结果。
百度飞桨产品团队负责人赵乔表示:“百度飞桨与Graphcore的合作,在本次MLPerf上获得了十分优秀的成果。Graphcore的IPU系统在合作中展现了出色的性能,在许多应用场景都展现出了巨大的应用潜力。我们期待进一步加深与Graphcore在硬件生态共创计划中的合作,以创新的技术加速AI产业落地,推动AI产业变革。”
百度飞桨已经实现了对于IPU的全面支持。Graphcore是百度飞桨硬件生态圈的创始成员,并在2022年5月正式加入了百度飞桨发起的硬件生态共创计划。未来,双方还将进一步展开合作,为开发者提供更多创新工具,推动AI生态繁荣,从而赋能产业中AI的应用和AI的商业化。产业中AI的应用落地,也必将反哺AI的发展和AI生态的进一步繁荣。
好文章,需要你的鼓励
法国人工智能公司Mistral AI宣布完成17亿欧元(约20亿美元)C轮融资,由荷兰半导体设备制造商ASML领投。此轮融资使Mistral估值从去年的60亿美元翻倍至137亿美元。英伟达、DST Global等知名投资机构参投。作为欧洲领先的AI开发商,Mistral凭借先进的多语言大模型与OpenAI等美国公司竞争,其聊天机器人Le Chat具备语音模式等功能。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
VAST Data收购了成立仅数月的初创公司Red Stapler,该公司由NetApp资深团队创立。Red Stapler创始人兼CEO Jonsi Stefansson将担任VAST云解决方案总经理,负责超大规模云战略。Red Stapler拥有6名开发人员,开发了跨SaaS交付、API集成、监控等功能的云控制平面和服务交付平台,将加速VAST AI OS在超大规模和多云环境中的部署,深化与全球领先超大规模云服务商的合作关系。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。