2022年3月3日,中国北京—— Graphcore® 今日正式发布全新IPU系统产品——Bow系列。Bow Pod系统产品采用了全球首款3D Wafer-on-Wafer处理器——Bow IPU。Bow IPU是新一代Bow Pod AI计算机系统的核心。与上代产品相比,它可为真实世界的AI应用提供高达40%的性能提升和16%的电源效率提升,同时价格保持不变,且无需更改现有代码。Bow的命名来源于伦敦市的一处地名。

Bow IPU处理器

Bow-2000 计算刀片
同时,Graphcore将于2024年交付全球首台超级智能计算机—— Good ™ Computer(古德计算机)。Graphcore正在开发新一代IPU技术,为这款Good™ Computer提供超过10 Exa-Flops的AI浮点计算;最高可达4PB的存储,带宽超过10PB/秒;支持超过500万亿参数的AI模型;3D Wafer-on-Wafer逻辑栈;同时获得Poplar® SDK的完全支持。该计算机预计价格在100万美元至1.5亿美元(取决于配置)。这款超未来的智能计算机之所以被命名为Good,一方面是Graphcore致力于打造“好”的计算机,一方面是向计算机科学家先驱Jack Good(杰克·古德)致敬。
Graphcore大中华区总裁兼全球首席营收官卢涛表示:“随着AI计算市场的整体快速发展,客户需要兼顾性能、效率和可靠性的计算机系统。我们发布新一代IPU,正是为了支持全球技术开发者和创新者在AI计算领域取得新的技术突破,实现高质量发展。我们希望不断开拓IPU在中国的AI应用场景,通过IPU赋能高效AI计算,支持中国创新者不断推进机器智能的边界。”
Bow Pod的出色性能
旗舰产品Bow Pod256提供超过89 PetaFLOPS的AI计算,而超大规模Bow Pod1024可提供350 PetaFLOPS的AI计算,支持机器学习工程师在AI模型规模呈指数增长的情况下仍可领先一步,在机器智能领域取得新的技术突破。
Bow Pod旨在为各种AI应用大规模提供真实世界的性能,从用于自然语言处理的GPT和BERT到用于计算机视觉的EfficientNet和ResNet,再到图神经网络和许多其他应用。



Wafer-on-Wafer创新技术
Bow Pod系统核心的Bow IPU处理器采用了全球首项3D半导体技术,从而支持Bow Pod 系统实现了巨大的性能提升和更高的电源效率。Wafer-on-Wafer 3D技术由Graphcore与台积电合作开发。Wafer-on-Wafer技术有潜力在硅片之间提供更高的带宽,从而优化电源效率,在晶圆级别提升Colossus架构的功率。
Bow IPU中的Wafer-on-Wafer,两个晶圆结合在一起,产生一个新的3D裸片。其中一个晶圆用于AI处理,在架构上与GC200 IPU处理器兼容,拥有1472个独立的IPU-Core tile,能够运行超过8800个线程,具有900MB的处理器内存储,而第二个晶圆拥有供电裸片。
通过在供电裸片中添加深沟槽电容器,位置在处理内核和存储旁,我们能够更高效地供电,从而实现350 TeraFLOPS的AI计算,实现40%的性能提升。通过与台积电紧密合作,我们充分验证了整套技术,包括背面硅通孔(BTSV)和Wafer-on-Wafer(WoW)混合键合中的多项突破性技术。
作为Bow Pod系统的组成部分,最新Bow-2000 IPU Machine采用了与第二代IPU-M2000 machine同样强大的系统架构,但现在配备了四个强大的Bow IPU处理器,可提供1.4 PetaFLOPS的AI计算。
Bow-2000可以完全向后兼容现有的IPU-POD系统,其高速、低时延的IPU结构和灵活的1U外形尺寸保持不变。Bow-2000是整个Bow Pod系列的基础组成部分。Bow-2000可安装在戴尔、Atos、Supermicro、浪潮和联想等领先品牌的主机服务器上,从而组成Bow Pod系统。整个Bow Pod系列包括Bow Pod16(4台Bow-2000和一台主机服务器)、Bow Pod32(8台Bow-2000和一台主机服务器)、Bow Pod64以及更大的旗舰系统Bow Pod256和Bow Pod1024。

最新Bow Pod系统现已上市,并开始在全球范围内发货。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。