Intel 18A芯片现已上电运行,并顺利启动操作系统,将用于明年推出的新一代客户端和服务器产品。外部客户产品将于明年上半年完成流片。
英特尔宣布,基于Intel 18A制程节点打造的首批产品——AI PC客户端处理器Panther Lake和服务器处理器Clearwater Forest,其样片现已出厂、上电运行并顺利启动操作系统。距离流片仅隔不到两个季度,英特尔便再次取得了突破性进展。目前,Panther Lake和Clearwater Forest均进展顺利,预计将于2025年开始量产。此外,英特尔还宣布,采用Intel 18A的首家外部客户预计将于明年上半年完成流片。
英特尔公司高级副总裁兼代工服务总经理Kevin O’Buckley表示:“面向AI时代,我们正在推进多项前沿系统级代工技术,为英特尔产品部门和我们的代工客户提供对下一代产品至关重要的全栈式创新。我们为Intel 18A目前取得的进展感到鼓舞,并正与客户密切合作,目标是在2025年将Intel 18A推向市场。”
上个月,英特尔发布了Intel 18A PDK(制程设计套件)的1.0版本,让代工客户能够在基于Intel 18A的芯片设计中利用RibbonFET全环绕栅极晶体管架构和PowerVia背面供电技术。EDA和IP合作伙伴正在完善对Intel 18A的支持,以便其客户能够展开新产品的设计。
这些进展表明,英特尔代工率先在向客户开放的制程节点上实现了RibbonFET全环绕栅极晶体管和PowerVia背面供电技术的结合。借助生态系统提供的 EDA 和 IP 工具以及工艺流程, RibbonFET 和 PowerVia 这两项突破性的创新技术将通过Intel 18A向代工客户提供。英特尔代工凭借其有韧性、更可持续、更可靠的制造能力和供应链,以及业界领先的先进封装技术,整合了设计和制造下一代规模更大、运行更高效的AI解决方案所需的要素。

在没有额外配置或修改的情况下,Panther Lake和Clearwater Forest能够顺利启动操作系统,清楚地表明了Intel 18A的良好状况——英特尔预计将于2025年通过这一先进制程技术重获制程领先性。Panther Lake的DDR内存性能已达到目标频率,同样体现了Intel 18A的顺利进展。将于明年首次大规模生产的Clearwater Forest,提供了未来CPU和AI芯片的设计蓝图,结合了RibbonFET全环绕栅极晶体管、PowerVia背面供电和Foveros Direct 3D先进封装技术的高性能解决方案,以实现更高密度和功率处理能力。Clearwater Forest也将是采用Intel 3-T base-die技术的首款产品。依托英特尔代工的系统级代工能力,Panther Lake和Clearwater Forest有望在每瓦性能、晶体管密度和单元利用率方面实现显著提升。
英特尔的EDA和IP合作伙伴已于7月获得了Intel 18A PDK 1.0版本的访问权限,正在更新其工具和设计流程,以便外部代工客户开始基于Intel 18A的芯片设计。这是英特尔代工业务的一个关键里程碑。
Cadence高级副总裁兼定制IC和PCB事业部总经理Tom Beckley表示:“通过提供业界领先的EDA和专为Intel 18A优化的IP,Cadence与英特尔代工的战略合作能够帮助我们的共同客户加速创新。Intel 18A的最新进展令人鼓舞,我们也很高兴能在基于Intel 18A的先进设计上为客户提供支持。”
Synopsys EDA事业部总经理Shankar Krishnamoorthy也表示:“很高兴看到英特尔代工抵达关键里程碑。英特尔代工已准备好为客户提供Intel 18A制程节点,并正在将设计下一代AI解决方案所需的各要素整合在一起,这正是我们的共同客户需要和期待的。作为芯片设计公司和代工厂之间的桥梁,Synopsys在全球晶圆代工行业中起着重要作用,我们很荣幸能与英特尔代工合作,面向英特尔的先进制程节点提供Synopsys领先的EDA和IP解决方案。”
RibbonFET全环绕栅极晶体管架构和PowerVia背面供电技术是Intel 18A的两项核心技术,有助于处理器的进一步微缩及其能效的持续提升,这正是推动AI计算的发展所需要的。RibbonFET能够严格控制晶体管沟道中的电流,有助于芯片组件的进一步小型化,同时可以减少漏电,随着芯片密度的持续提升,这一点变得非常重要。PowerVia 则通过将电源线移至晶圆背面,优化了信号路由,进而降低了电阻,提高了能效比。RibbonFET和PowerVia的强强联合有望大幅提高未来电子设备的计算性能和电池寿命。英特尔率先将结合了全环绕栅极晶体管架构和背面供电技术的制程节点推向市场,将使全球代工客户受益。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。