2022年3月3日,中国北京—— Graphcore® 今日正式发布全新IPU系统产品——Bow系列。Bow Pod系统产品采用了全球首款3D Wafer-on-Wafer处理器——Bow IPU。Bow IPU是新一代Bow Pod AI计算机系统的核心。与上代产品相比,它可为真实世界的AI应用提供高达40%的性能提升和16%的电源效率提升,同时价格保持不变,且无需更改现有代码。Bow的命名来源于伦敦市的一处地名。

Bow IPU处理器

Bow-2000 计算刀片
同时,Graphcore将于2024年交付全球首台超级智能计算机—— Good ™ Computer(古德计算机)。Graphcore正在开发新一代IPU技术,为这款Good™ Computer提供超过10 Exa-Flops的AI浮点计算;最高可达4PB的存储,带宽超过10PB/秒;支持超过500万亿参数的AI模型;3D Wafer-on-Wafer逻辑栈;同时获得Poplar® SDK的完全支持。该计算机预计价格在100万美元至1.5亿美元(取决于配置)。这款超未来的智能计算机之所以被命名为Good,一方面是Graphcore致力于打造“好”的计算机,一方面是向计算机科学家先驱Jack Good(杰克·古德)致敬。
Graphcore大中华区总裁兼全球首席营收官卢涛表示:“随着AI计算市场的整体快速发展,客户需要兼顾性能、效率和可靠性的计算机系统。我们发布新一代IPU,正是为了支持全球技术开发者和创新者在AI计算领域取得新的技术突破,实现高质量发展。我们希望不断开拓IPU在中国的AI应用场景,通过IPU赋能高效AI计算,支持中国创新者不断推进机器智能的边界。”
Bow Pod的出色性能
旗舰产品Bow Pod256提供超过89 PetaFLOPS的AI计算,而超大规模Bow Pod1024可提供350 PetaFLOPS的AI计算,支持机器学习工程师在AI模型规模呈指数增长的情况下仍可领先一步,在机器智能领域取得新的技术突破。
Bow Pod旨在为各种AI应用大规模提供真实世界的性能,从用于自然语言处理的GPT和BERT到用于计算机视觉的EfficientNet和ResNet,再到图神经网络和许多其他应用。



Wafer-on-Wafer创新技术
Bow Pod系统核心的Bow IPU处理器采用了全球首项3D半导体技术,从而支持Bow Pod 系统实现了巨大的性能提升和更高的电源效率。Wafer-on-Wafer 3D技术由Graphcore与台积电合作开发。Wafer-on-Wafer技术有潜力在硅片之间提供更高的带宽,从而优化电源效率,在晶圆级别提升Colossus架构的功率。
Bow IPU中的Wafer-on-Wafer,两个晶圆结合在一起,产生一个新的3D裸片。其中一个晶圆用于AI处理,在架构上与GC200 IPU处理器兼容,拥有1472个独立的IPU-Core tile,能够运行超过8800个线程,具有900MB的处理器内存储,而第二个晶圆拥有供电裸片。
通过在供电裸片中添加深沟槽电容器,位置在处理内核和存储旁,我们能够更高效地供电,从而实现350 TeraFLOPS的AI计算,实现40%的性能提升。通过与台积电紧密合作,我们充分验证了整套技术,包括背面硅通孔(BTSV)和Wafer-on-Wafer(WoW)混合键合中的多项突破性技术。
作为Bow Pod系统的组成部分,最新Bow-2000 IPU Machine采用了与第二代IPU-M2000 machine同样强大的系统架构,但现在配备了四个强大的Bow IPU处理器,可提供1.4 PetaFLOPS的AI计算。
Bow-2000可以完全向后兼容现有的IPU-POD系统,其高速、低时延的IPU结构和灵活的1U外形尺寸保持不变。Bow-2000是整个Bow Pod系列的基础组成部分。Bow-2000可安装在戴尔、Atos、Supermicro、浪潮和联想等领先品牌的主机服务器上,从而组成Bow Pod系统。整个Bow Pod系列包括Bow Pod16(4台Bow-2000和一台主机服务器)、Bow Pod32(8台Bow-2000和一台主机服务器)、Bow Pod64以及更大的旗舰系统Bow Pod256和Bow Pod1024。

最新Bow Pod系统现已上市,并开始在全球范围内发货。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。