英特尔高管今天详细介绍了全新更名之后的“Intel Foundry”代工部门的新业务愿景,并透露了英特尔技术路线图上最先进的芯片制造工艺。
该工艺将由ASML Holdings NV的High NA EUV机器提供支持。这些机器大小相当于双层巴士,每台成本3.5亿美金,可以生产用于任何商用光刻系统的最小晶体管。ASML的首款High NA EUV装置在去年年底抵达了英特尔位于俄勒冈州的晶圆厂。
对英特尔的“重建”
今天英特尔在Foundry Direct Connect活动上详细介绍了针对Intel Foundry的计划,这是英特尔首个专门以代工处理器制造为主题的活动。除了首席执行官Pat Gelsinger发表主旨演讲(如图)外,还有美国商务部长Gina Raimondo、微软公司首席执行官Satya Nadella、将于今天晚些时候亲自出席的OpenAI首席执行官Sam Altman,以及博通公司等其他主要芯片行业厂商的高管也出席了会议。
英特尔详细介绍说,英特尔代工业务迄今为止已经赢得总生命周期价值超过150亿美金的芯片生产交易合同,这些合同中至少有一份是为微软制造未指定的、定制芯片的交易,将利用即将推出的Intel 18A制造工艺,这一工艺将制造基于环栅设计的晶体管,英特尔的顶级竞争对手目前也正在采用这种设计。
Gelsinger在台上表示:“这是一次更名、一次重组、一种新的组织模式,是对英特尔的重建。”
到目前为止,全栅极Intel 18A节点仍然是英特尔公开披露的开发路线图上最先进的制造工艺。在早上的Foundry Direct Connect大会上,这家芯片巨头详细介绍了一种名为Intel 14A的更先进的工艺,预计将于2027年上线,将使用ASML价值3.5亿美金的High NA EUV机器把晶体管雕刻成芯片。
High NA EUV机器使用一种新型光学元件(称为变形镜)将其产生的激光束引导到硅晶圆上,激光束可以雕刻分辨率为8纳米的晶体管,比上一代机器的13.5纳米分辨率相比有了显着提高。High NA EUV设备还有望减少处理器缺陷并加快芯片生产速度,同样有利于英特尔的制造计划。
此次新推出的ASML机器的运行原理,和英特尔在其工厂中使用的当前一代EUV设备是相同的。它们的工作原理都是每秒数千次汽化少量锡以产生强大的激光束。大多数光子被光学元件吸收,通过光学元件到达晶圆厂运营商的晶圆,但剩余的光仍然足够强,足以生产高精度晶体管。
Gelsinger表示:“摩尔定律还没有终结,摩尔定律仍然有效。”
除了公布Intel14A之外,英特尔此次还透露,计划推出多个版本的工艺,其中一个版本以字母P表示,其性能比基本版本高5%到10%。英特尔的竞争对手台积电同样提供了一些性能优化版本的节点。
还有一个即将推出的工艺被命名为T。该技术将支持硅通孔和细导线,从而可以将多个芯片堆叠在一起以创建一个大型的三维处理器。英特尔使用硅通孔构建GPU Max系列人工智能加速器,这种加速器将47个半导体模块和约1000亿个晶体管组合到一个产品中。
Gelsinger表示:“AI正在深刻地改变世界,以及我们对技术和驱动技术的硅的看法,这为世界上最具创新性的芯片设计者和全球首家AI时代系统代工厂——Intel Foundry创造了前所未有的机遇。”
生态系统的策略
工程师使用一种称为电子设计自动化(EDA)工具的特殊应用来设计芯片。今天英特尔表示,有六家EDA软件制造商将提供“工具资格和IP准备”,帮助客户设计可使用英特尔18A工艺制造的芯片,包括Cadence Design Systems、Synopsys和Ansys,其中Synopsys和Ansys正在通过规模350亿美金的收购进行合并。
在很多情况下,芯片团队不会从头开始一个新项目,而是将他们的芯片构建在Arm预封装蓝图的基础上。英特尔今天在Foundry Direct Connect上详细介绍了正在与Arm合作开展的一项名为“新兴业务计划”(Emerging Business Initiative)的项目,两家厂商将为那些开发基于Arm片上系统的初创公司提供制造支持、财务援助和其他资源。
英特尔代工部高级副总裁Stuart Pann表示:“我们正在提供世界一流的代工厂,由具有弹性、更可持续和安全的供应来源提供,并辅以无与伦比的芯片系统能力,所有这些优势结合在一起,将为客户提供为最苛刻应用设计和提供解决方案所需的一切。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。