英特尔从三个月前有史以来最大的亏损中反弹,表现超出了分析师的预期,并在第二季度财报公布的时候恢复盈利,这一结果使英特尔的股价在盘后交易中上涨了7%多。
今天英特尔公布了第二季度财报,该季度净利润为15亿美元,不计入特定成本之前的收益为每股13美分,收入较上年同期下降15%,至129亿美元,这一结果高于此前分析师预期的每股亏损3美分,销售额121.3亿美元。
英特尔还为投资者带来了进一步的好消息。英特尔预计第三季度每股收益为20美分,收入为134亿美元,高于市场普遍预期的每股收益16美分,收入132.3亿美元。
英特尔调整后的毛利率接近40%,高于此前预测的37.5%。尽管英特尔大力投资制造能力,但投资者仍希望看到毛利率进一步扩大。

无法回避的事实是,这已经是英特尔销售额连续第六个季度下降。英特尔首席执行Pat Gelsinger(如图)仍然心态乐观,他在一份声明中表示,由于代工业务势头强劲,业绩超出了自身指引的上限。
在与分析师的电话会议上,Gelsinger承认,每个业务板块仍然存在“持续的弱点”,而且这种情况直到接近年底才会有所改变。他表示,服务器芯片销售预计要到第四季度才能恢复。
英特尔面临的问题之一是如今云基础设施提供商更专注于购买GPU来为人工智能提供动力,这意味着他们正在减少在英特尔硬件上的支出。
Gelsinger在2021年接任英特尔公司的首席执行官,肩负起在因多年生产延误而陷入低迷的若干年后重振英特尔命运的使命。不仅如此,英特尔还面临着来自AMD日益激烈的竞争,后者的芯片目前和英特尔的产品一样好,并且从英特尔那里夺取了一部分市场份额。
为了实现公司转型,Gelsinger此前宣布了将于2023年实施的30亿美金的成本节约计划。今天,首席财务官David Zinsner表示,英特尔在该计划方面取得了良好的进展。他透露:“自从Gelsinger重新加入公司以来,我们现在已经退出了9个业务线,每年总共节省了超过17亿美金。”
该季度英特尔的客户端计算业务(涵盖笔记本电脑和台式机CPU)营收68亿美元,同比减少12%,这一结果反映了个人电脑市场的整体低迷,随着推动了在家办公电脑销售的新冠疫情结束,市场销量也开始出现大幅下滑。与此同时,英特尔数据中心和人工智能业务(涵盖服务器芯片销售)的销售额下降了15%,至40亿美元。
英特尔其他业务部门规模则要小得多,其中包括网络和边缘部门(主要为电信行业生产芯片)的销售额为14亿美元,下降了38%;至于专注于汽车芯片的上市子公司Mobileye,销售额为4.54亿美元,下降1%。
最后,英特尔新打造的代工服务业务该季度的收入为2.32亿美元。这块业务主要是为自身缺乏芯片制造工厂的其他芯片制造商生产芯片,英特尔对此寄予厚望。英特尔表示,计划在2026年底前赶上台积电的制造能力,届时,将能够为其他公司生产更先进的芯片。
Gelsinger告诉分析师,这项被称为“四年五个节点”的举措仍在按计划进行中。“我们在四年内连续在五个[制造]节点上取得了良好进展,并在18A中达到了顶峰。”
Pund-IT 分析师Charles King指出,市场对财报做出的积极反应是一个很好的例子,说明了为什么高管们应该保持谨慎,然后在好消息到来时提供好的消息。King表示:“英特尔首席执行官Pat Gelsinger和英特尔其他领导层值得祝贺公司取得稳健的业绩,特别是考虑到许多市场持续存在的经济不确定性。他们还精明地指出英特尔面临的挑战,同时指出英特尔可以从采用以AI为中心的系统和解决方案中获得的潜在好处。”
Gelsinger在电话会议上谈到了英特尔的AI计划,坚称英特尔的最终目标是将AI融入到每一款产品中。虽然英伟达目前在AI行业占据主导地位,但英特尔预计将在今年晚些时候推出Meteor Lake CPU,英特尔首款带有用于机器学习任务的集成神经处理器的消费级芯片。
AMD已经发布了这样的芯片。今年早些时候有消息透露称,Meteor Lake将支持微软Windows操作系统中众多新的AI功能。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。