这种将正面处理元件与背面供电元件加以区分的技术,被命名为PowerVia。
很多朋友还觉得背面供电纯粹是痴人说梦,但这次情况可能真的有变:英特尔宣布将在未来的芯片中实现这种新设计,通过将晶体管供电线与信号线区分开来的方式简化芯片布局。
这项技术的正式名称为PowerVia,将于2024年上半年在采用Intel 20A制程节点的芯片上首次亮相。如果一切顺利,PowerVia随后还将登陆18A制程节点。
为了尽量保证这项技术的顺利落地,芯片巨头已经在基于Intel 4“内部制程节点”的芯片上进行了构建和测试。这一制程节点已经投入生产,将抢在年底之前被全面应用于处理器制造。
英特尔已经发表了两篇关于该主题的论文,并表示将在下周日本京都举行的VLSI研讨会上展示相关成果。
背面供电的本质,就是将晶体管的供电线放在用于制造芯片的硅晶圆背面。虽然原理说起来简单,但具体实现却相当困难。
开发这项技术,是为了解决因处理器等高端芯片上晶体管密度的增加而引发的种种问题。芯片制造采用自下而上的顺序,先从晶体管开始,之后在晶体管顶部添加互连层来创建电路。传统电路会同时包含为晶体管供电和传输信号的线路。
据英特尔介绍,问题是如今的互连层已经变成一个复杂且混乱的网络,可能对芯片性能造成影响。因此将供电线与信号线区分开来有助于简化芯片设计。
英特尔技术开发副总裁Bernhard Sell指出,“在我们通过缩小晶体管尺寸来降低功耗、提升性能的同时,还需要在其上同步缩小所有布线层,而信号线和供电线则共享布线层中的空间资源。所以在大大缩小线路尺寸时,就会引发种种问题。”
“首先,将它们缩小到极小尺寸对应极高的成本,包括使用越来越多的UV层将其图案化。另外,还需要从凸点(外部连接)到晶体管产生更高的电位差,这是因为金属走线和通孔已经越来越小,需要借此保证各晶体管之间的信号路由不致出现更大延迟。”
根据英特尔方面的说法,解决之道是将供电线移至晶圆背面,从而为互连走线腾出空间。
Sell指出,“这种方式有好大优点。首先,能够更直接地与晶体管进行背面接触,这样电位差就可以控制得非常低。而且因为不必再考虑供电走线的共享需求,所以也能放宽金属层的间距。”
英特尔认为这样的设计能够降低互连布线的构建成本,同时提升性能水平,是毫无疑问的双赢之策。
但英特尔过去几年间曾多次遭遇新制程技术带来的问题,并导致其Sapphire Rapids处理器迟迟未能与广大用户见面。考虑到这段经历,芯片巨头如今表现出的谨慎态度也完全可以理解。
Sell在简报会上向记者们表示,“英特尔希望向大家保证,我们已经从过往的经历中吸取了教训。有时候我们一股脑塞进了太多东西,所以导致执行层面出现了问题。”
目前针对Intel 20A制程节点有两项重大改革计划:一是由当前的FinFET晶体管设计转向RibbonFET,二就是PowerVia。Sell指出,新方法会“在开发阶段就将信号线和供电线分开,这样就能先确保其中一方经过全面审查并开发完成,之后再专注于处理另一方”以降低设计风险。
要实现这种区分,必须借助已知的良好技术构建原型测试样品,尝试将PowerVia先与FinFET晶体管结合起来。担当这一重任的就是即将推出的Meteor Lake处理器家族中的E-core节能CPU核心设计,代号Blue Sky Creek。
“我们选取了Intel 4的FinFET制程,再添加Nano TSV硅通孔以及与Intel 20A相同的前端互连,在此基础上融合了整个背面供电网络工艺。所以最终成果看起来跟Intel 20A更相似,只是继续沿用FinFET而非新的RibbonFET,这就有效降低了风险水平。如果效果理想,接下来我们就可以全力关注RibbonFET。”
根据英特尔的介绍,与Intel 4参考设计相比,测试芯片的电位差降低了30%以上,性能则提升超过6%。芯片巨头还表示,由于将供电线转移到了背面,这款新芯片有大块区域实现了超过90%的高单元利用率。
英特尔宣布,计划明年上市的这款Intel 20A芯片将率先实现背面供电。该产品预计将从属于Arrow Lake系列,是一款面向客户端PC的处理器。
“AI和图形方面出现了大量用例,需要使用尺寸更小、速度更快、性能更强的晶体管,而原有布线设计已经成为发展道路上的重大瓶颈。将供电线转移到背面能够解决很多问题,帮助我们迈出技术升级的重要一步。”
好文章,需要你的鼓励
本文揭示了AI时代CIO的七项关键行为特征,基于对多位CIO和AI专家的深度访谈。专家指出,AI精通的CIO需具备实用AI素养、战略视野和变革领导力,能将技术与业务战略对齐,建立强大数据治理基础。文章详细解析了分析型AI、生成式AI和智能体AI三大技术领域,强调数据基础的重要性,并提出CIO应从项目思维转向产品思维,通过跨职能团队实现端到端价值交付。
斯坦福大学等机构联合开发的CIFT系统首次解决了机器人"近视眼"问题,通过精确控制真实数据和合成数据的混合比例,让机器人在陌生环境中的表现提升54%以上。该系统包含多视角视频增强引擎MVAug和数据组合优化策略,能够预测数据失效的"去相干点",确保机器人学习真正重要的任务特征而非环境表象,为实用化通用机器人奠定了重要基础。
尽管苹果在AI竞赛中看似落后,但其私有云计算基础设施展现了技术优势。当行业为追赶大语言模型而降低隐私标准时,苹果坚持原则,开发出保护用户数据隐私的技术方案。谷歌最新宣布的类似实施方案验证了苹果技术路线的正确性,这可能推动其他AI实验室采用相同做法,为用户隐私带来重大胜利。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。