英特尔公司今日在拉斯维加斯CES电子展上发布了全新的Core Ultra X9和X7处理器,这是首批采用其最先进18A制造工艺的芯片产品。
这些处理器隶属于全新的18A Panther Lake Core Ultra系列3产品线,将被众多顶级个人电脑制造商采用。英特尔客户端计算事业部高级副总裁兼总经理Jim Johnson在CES 2026主题演讲中表示:"我们一直在塑造基础计算的真正含义。"
重要里程碑意义
这些新芯片对英特尔具有重要的里程碑意义,标志着公司在重建声誉方面迈出关键一步。此前,英特尔在与英伟达等竞争对手的较量中落后。公司宣称这些处理器是迄今为止在美国制造的最先进芯片。更重要的是,它们是首批采用英特尔备受瞩目的18A工艺制程的芯片,该工艺历经数年才得以实现。
18A工艺是前英特尔首席执行官Pat Gelsinger恢复公司在芯片制造业地位计划的核心要素。然而,他未能及时准备好这些芯片来挽救自己的职位,于2024年底被免职。
先进的18A制造工艺
字母"A"代表"埃",这是一个比目前用于测量芯片晶体管尺寸的纳米更小的测量单位。18埃相当于约1.8纳米,与竞争对手台积电的N2制造工艺基本相当。
英特尔采用RibbonFET环绕栅极技术管理芯片中的电流,并使用PowerVia实现背面供电。这种组合使新芯片的每瓦性能比现有硅片提升15%。
在CES上,英特尔现任首席执行官陈立武表示,公司已准备好提前按计划大规模量产18A制造工艺。如果这些芯片表现符合预期,可能标志着公司命运的转折点。
Panther Lake Core Ultra系列3规格
英特尔Panther Lake Core Ultra系列3芯片回归了熟悉的性能核心、效率核心和低功耗效率核心术语,即P核、E核和LP核。这与其Core Ultra 100芯片(也称为Meteor Lake)使用的术语相同。芯片配备了能够提供50万亿次运算每秒(TOPS)人工智能处理性能的神经处理单元,以及英特尔Xe3图形处理器。
Johnson在CES展示中告诉媒体,Panther Lake的单线程性能比公司的Lunar Lake芯片高约10%,同时功耗相同。与Lunar Lake和Meteor Lake相比,多线程性能也提升超过50%。
多种配置选择
Panther Lake Core Ultra系列3芯片将提供三种不同配置。八核芯片由四个P核、四个E核、四个Xe3 GPU核心和四个光线追踪单元组成,配备6,800兆传输每秒LPDDR5x或6,400 MT/s DDR5内存。
还有一款16核芯片,由四个P核、八个E核和四个LP核组成,配备四个Xe3 GPU核心和四个光线追踪单元,以及8,533 MT/s LPDDR5x或7,200 MT/s DDR5内存。最后,还有第二种更强大的16核选项,配备四个P核、八个E核、四个LP核、12个Xe3 GPU核心和12个光线追踪单元,以及9,600 MT/s LPDDR5x内存接口。
与AMD的Ryzen AI Max和Ryzen 9000X3D芯片系列一样,最终的12Xe配置是三者中最高端的,这是笔记本电脑购买者需要关注的。相关GPU是Intel Arc B390,英特尔表示,它将使Panther Lake Core Ultra系列3芯片的游戏性能提升73%。
Intel Arc B390 GPU还利用帧生成技术来加速帧率和提升图形性能。据Johnson介绍,它能够为每个GPU渲染帧生成三个生成式AI帧。
英特尔表示,搭载Core Ultra系列3芯片的首批笔记本电脑将于本月底在全球发布。公司还预告了与宏碁和微星国际等合作伙伴基于这些芯片推出手持游戏平台的计划,表示将在今年晚些时候透露更多信息。
Q&A
Q1:英特尔18A制造工艺有什么特点?
A:18A制造工艺是英特尔最先进的芯片制造技术,其中"A"代表埃,18埃相当于约1.8纳米。该工艺采用RibbonFET环绕栅极技术管理电流,使用PowerVia实现背面供电,使新芯片的每瓦性能比现有产品提升15%,与台积电N2工艺基本相当。
Q2:Panther Lake Core Ultra系列3处理器性能如何?
A:Panther Lake处理器单线程性能比Lunar Lake芯片高约10%,同时功耗相同。多线程性能比Lunar Lake和Meteor Lake提升超过50%。配备Intel Arc B390 GPU的版本游戏性能提升73%,神经处理单元可提供50 TOPS人工智能处理性能。
Q3:什么时候能买到搭载Core Ultra系列3芯片的设备?
A:英特尔表示,搭载Core Ultra系列3芯片的首批笔记本电脑将于本月底在全球发布。公司还计划与宏碁、微星等合作伙伴推出基于这些芯片的手持游戏平台,具体信息将在今年晚些时候公布。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。