对英特尔公司来说,现在似乎正是放弃代工业务的最佳时机。
尽管前任CEO Pat Gelsinger就先进半导体制造业务提出了令人信服的理由,但他的愿景从起步之初就存在缺陷。英特尔的代工业务就如同十年之前IBM公司的微电子业务一样,属于纯粹的负价值资产。但与此同时,维持这项负资产对于美国而言又属于在AI半导体竞赛当中保持竞争优势的战略之选,绝对不可动摇。如果当初经济危机下的金融机构有着大而不能倒的属性,那么英特尔的代工设施对于美国国家利益也是同样关键的基础能力且意义重大。
因此对于Intel Foundry Services(简称IFS)代工业务,以下几个核心问题必须找到答案:
本文将通过分析概述一项大胆计划,即拆分英特尔的代工业务,并依靠其他科技巨头、私募股权以及政府资金等多个利益相关方的投资,并与台积电或三星电子等行业领导者间建立起战略合作伙伴关系——这是因为目前只有台积电或三星拥有设计、建造以及运营现代代工设施,并在合理时间之内实现盈利所必需的专业知识。
之所以做出拆分英特尔代工业务的决定,主要基于以下严酷的经济现实:
英特尔的x86业务是其晶圆产能的核心驱动力,但已经长期处于衰退状态。相比之下,台积电主导的Arm处理器至少拥有十倍于前者的晶圆需求量级。英特尔缺乏在先进半导体制造业维持生存的必要规模。
根据赖特定律,随着累计产量的增加,制造成本也会随之下降。英特尔的晶圆产量较低,导致制造成本最多比台积电高出30%至35%。除此之外,英特尔在各个新的制程节点上实现有竞争力的产量方面也比台积电落后约一年。
英特尔的代工业务正在大量吞噬现金。截至今年4月,该公司报告称在190亿美元的收入之下 ,其运营亏损已经高达70亿美元,收入也同比下降31%。这样的财务状况根本无法持续。
随着制程节点变得越来越昂贵(例如,2纳米制程的晶圆单片价格已高达2.5万美元),英特尔的市场竞争力表现正在减弱。如果不加以干预,代工设施将继续拖累英特尔的整体业务,导致其他本应具有巨大发展潜力的业务分支被其榨干。
在美国本土维持半导体制造能力,对于国家安全及经济韧性至关重要。
必须坚持由总部位于美国的实体对关键知识产权的控制力,由此减轻地缘政治引发的风险。
英特尔董事会必须意识到其代工业务的负面价值并果断采取以下行动:
与台积电(或三星)合作,利用对方在先进半导体制造业方面的专业知识。
从美国各科技巨头(包括Alphabet、亚马逊、苹果、Meta Platform、微软以及英伟达等)以及CHIPS芯片法案及私募股权公司/公共基金处获取投资。我们认为埃隆·马斯克也应参与此项计划。
将为英特尔预留的80亿至100亿美元重新分配给多家利益相关合资企业,以确保美国先进半导体制造产业的长期可持续性。同时对其余部分的CHIPS芯片法案资金也应做重新统筹与划拨。
成功拆分英特尔代工业务,离不开各家不同利益相关方的协同贡献,具体如下表所示:
备注:苹果、Alphabet、亚马逊、微软、Meta以及英伟达目前资产负债表上的现金加流动证券的总金额超过5000亿美元。
英特尔的代工业务对于这样一家净资产为负的公司来说已成一项关键、但不具备可持续性的业务。理想的解决方案并非直接放弃,而是通过协作方式对其加以改造。由各科技巨头、私募股权及美国政府战略投资共同支持的拆分实体,将创造出一股具备市场竞争力的独立半导体制造力量,维护美国在半导体领域的先进地位。
这样一家合资企业还须以联手台积电(或者三星电子)作为运营基础,借此确保获取成功所需的专业知识,同时减轻英特尔的财务负担。这条道路不仅有助于挽救重要国家资产,同时也符合更广泛的行业以及地缘政治需求。如果不果断采取行动,英特尔将面临破产风险,且最终也无法实现美国在半导体领域保持领先的愿景——这方面风险绝对不容忽视。
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。