台积电(TSMC)表示,要到2025年下半年或者可能在2025年底才会开始生产2nm节点,这预示着届时竞争格局将会发生转变。
这家台湾芯片代工厂在近日举行的第一季度财报电话会议上公布了2nm节点(正式命名为N2)的时间表。台积电在2024年末的风险生产之后,预计在2025年中后投入生产,采用2nm生产的裸片将会在2026年通过量产交付给设计人员,这就意味着,这些芯片最早也要到2026年才能用于手机、PC和服务器。
就在台积电公布这一消息的几天之前,英特尔刚刚宣布将重振代工业务,公布了下一代18A节点将于2024年下半年准备投产的计划,比之前给出的2025年时间表提前了数月时间。由于A是ångströms的缩写,所以18A代表着这将是1.8nm的工艺。
有趣的是,这是否意味着英特尔将打败台积电,凭借着可抗衡台积电的制造工艺进入市场?对此我们保持怀疑态度,尽管我们有理由相信市场竞争将变得越来越激烈,如果事情进展顺利的话,英特尔可能会在2025年迎头赶上甚至是处于领先。
英特尔公司首席执行官Pat Gelsinger坚持认为,英特尔将凭借18A节点成为工艺性能上的领导者,最近透露有关英特尔将提前数月开始生产的消息,表明英特尔现在是信心满满。
与此同时,台积电首席执行官CC Wei在财报电话会议上表示,预计2nm节点将为TSMC芯片设计人员提供“最好的技术、成熟度、性能和成本”——尽管比英特尔18A节点投产要晚一些。
半导体咨询公司IC Knowledge的负责人Scotten Jones在最近一项研究中指出,英特尔最近在节点开发方面的提速让他相信,英特尔可能实现“逆袭”,凭借18A节点在性能上超越竞争对手台积电和三星。
如果真的如此,这将标志着英特尔有望扭转此前因为10nm和7nm上的错误导致制造工艺落后于台积电和三星的竞争格局。或者这至少标志着Jones本人的观点发生了转变,此前他认为英特尔根本没有机会迎头赶上。
他这样写道:“总而言之,我们相信英特尔能够在代工厂陷入困境的时候,大幅加快他们的工艺开发进程。虽然我们预计英特尔不会在这个期间重新赢得密度上的领先优势,但我们确实相信英特尔可以重新夺回性能上的领先优势。”
Jones是根据英特尔、台积电和三星给出的最新时间表,以及这几家厂商对新节点预期性能改进做出了这一系列分析。上周Jones发布这一分析结果的时候,台积电尚未给出有关2nm节点的官方时间表,当时Jones表示,他认为2nm有望在2025年到货,这与台积电后来在财报电话会议上给出的时间大体一致。
英特尔计划从现在到2024年期间共推出4个新节点:2022年下半年推出Intel 4节点,然后在2023年推出Intel 3,2024年初推出Intel 20A,以及2024年晚些时候推出Intel 18A。
而在这个时间区间内,台积电和三星仅计划推出2个节点,其中2nm节点都预计是在2025年底推出。台积电一直是以为AMD、Nvidia和Apple生产组件而著称。
现在重要的一点是,英特尔去年重命名了下一代制造工艺,有意将自己的节点命名和台积电、三星的节点命名关联起来。例如,英特尔的10nm增强型SuperFin节点,现在的命名是Intel 7,这说明英特尔认为该节点相当于竞争对手的7nm工艺。由此可知Intel 4,也就是之前的英特尔7nm节点,相当于竞争对手的4nm节点,以此类推。
然而,最终这些节点所支持的产品所展现出来的性能和效率才是最重要的,所以我们只有在英特尔的下一代节点为市场上的竞争芯片提供动力时,才能真正了解这些节点与台积电和三星的节点相比表现如何。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。