英特尔第三季度财报超出华尔街预期,这一成果得益于收入增长和更大幅度的成本削减,以及过去两个月获得的多项大额投资,CEO Lip-Bu Tan正努力扭转这家陷入困境的半导体巨头的局面。
英特尔的收入表现和41亿美元净收入呈现出比此前连续季度亏损更为乐观的前景。但这家公司的复苏故事中,很大篇幅要归功于通过裁员和其他削减措施进行的成本控制,以及来自软银、英伟达和美国政府的一系列高调投资。
英特尔在第三季度财报发布会上宣布,公司在第三季度向资产负债表增加了200亿美元,推动股价飙升。这种增长主要归因于过去三个月内对公司的三笔大额投资。
8月,软银投资20亿美元。几天后,美国政府史无前例地持有英特尔10%的股份。截至目前,公司已从美国政府获得了计划中89亿美元投资的57亿美元。9月,英伟达也购买了英特尔50亿美元的股份,作为双方长期合作开发芯片的更广泛协议的一部分。
"我们为加强资产负债表而采取的行动为我们提供了更大的运营灵活性,使我们能够更好地继续充满信心地执行我们的战略,"Tan在公司财报电话会议上表示。"特别是,我对特朗普总统和国务卿霍华德·卢特尼克对我的信任和信心感到荣幸。他们的支持突显了英特尔作为唯一一家拥有先进逻辑、研发和制造能力的美国半导体公司的战略作用。"
公司还通过9月12日完成出售其自2015年以来拥有的硬件公司Altera的所有权股份获得了52亿美元。它还出售了自动驾驶技术公司Mobileye的股份。
英特尔第三季度收入增长8亿美元至137亿美元,而去年同期为129亿美元。英特尔第三季度净收入为41亿美元,与去年同期报告的166亿美元亏损形成了巨大反差。
代工业务发展
尽管本季度表现强劲,但关于英特尔代工业务下一步发展的细节并不多,该业务为客户制造定制芯片。这项业务从一开始就表现不佳,一直是Tan关注的重点,他在今年夏天对代工业务进行了大幅裁员。
该业务似乎是特朗普政府的优先事项;政府对英特尔投资的一个关键条件包括,如果英特尔在未来五年内剥离其代工业务,将对其进行处罚。
华尔街密切关注代工业务,以寻找公司长期增长的迹象。英特尔分析师在8月告诉TechCrunch,公司不需要现金来扭转局面,而是需要制定让代工业务步入正轨的策略。
Tan表示,英特尔认为其代工业务在利用不断增长的芯片需求方面"具有独特的优势",但在细节方面着墨不多——除了说公司正在积极与潜在代工客户接触——并补充说代工业务的增长将保持有序。
"建设世界级代工厂是一项建立在信任基础上的长期努力,"Tan说。"作为代工厂,我们需要确保我们的工艺能够被各种客户轻松使用,每个客户都有自己独特的产品构建方式。我们必须学会取悦我们的客户,因为他们依靠我们制造晶圆,满足他们对强大性能、良率、成本和进度的所有需求。"
Q&A
Q1:英特尔第三季度业绩表现如何?
A:英特尔第三季度财报超出华尔街预期,收入增长8亿美元至137亿美元,净收入达到41亿美元,与去年同期166亿美元亏损形成巨大反差。公司还向资产负债表增加了200亿美元。
Q2:英特尔获得了哪些重要投资?
A:过去三个月英特尔获得了多项大额投资:软银投资20亿美元,美国政府持有10%股份并提供57亿美元资金,英伟达购买50亿美元股份。此外还通过出售Altera和Mobileye股份获得52亿美元。
Q3:英特尔代工业务未来发展前景如何?
A:代工业务是英特尔复苏的关键,也是特朗普政府关注的重点。CEO Tan认为该业务在利用芯片需求增长方面具有独特优势,公司正积极与潜在客户接触,但强调建设世界级代工厂需要长期努力和客户信任。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。