英特尔公布第二季度财报表现抢眼,不仅超出分析师的预期,而且让当前中美贸易战期间的芯片供应更有保障。
英特尔不仅调高了全年指引,还证实了外界关于将大部分智能手机调制解调器业务出售给苹果公司的消息。
该季度英特尔在股票报酬等某些成本之前的收益为每股1.06美元,收入为165亿美元,轻松超过了华尔街预期的89美分每股收益,和157亿美元收入。此外营业收入为46亿美元,同比减少12%,净收入为42亿美元,同比减少17%。
第三季度指引则要好一些,英特尔预计未来三个月的每股收益为1.24美元,营收为180亿美元。此前华尔街预计每股收益仅为1.16美元,营收为177.2亿美元。
好于预期的指引足让投资者们感到兴奋,使得英特尔股价在盘后交易中上涨5%多。
在英特尔同意将大部分智能手机调制解调器业务出售给iPhone制造商苹果公司之后,投资者自然非常高兴看到英特尔从苹果公司那里获得了10亿美元现金。该协议下,将有2200名英特尔员工加入苹果公司,苹果将获得了一系列相关专利。英特尔表示,将保留继续为自动驾驶汽车和PC生产调制解调器的权利。
Pund-IT分析师Charles King表示:“当业绩超出预期的时候,一切就都很好了,把一个糟糕的业务卖给苹果所带来10亿美元的意外收获只是锦上添花。毫无疑问,投资者们已经准备好为此庆祝了。”
英特尔各个业务部门的业绩有点参差不齐。作为最大的业务部门,英特尔的客户计算业务(包括销售用于PC的计算机芯片)收入同比增长1%,达到88亿美元。英特尔方面指出,在美中贸易战可能会或可能不会产生关税的任何潜在影响之前,不仅产品销售取得了成功,而且客户也在持续消耗库存。
另一方面,英特尔数据为中心业务部门收入同比减少了7%。英特尔的Data Center Group(面向数据中心运营商销售芯片)的收入增长了3%,但云计算业务下滑了1%。
Moor Insights&Strategy分析师Patrick Moorhead认为,在PC和数据中心行业竞争激烈和具有挑战的环境下,英特尔的主要业务均有出色表现。
“英特尔第二季度表现非常好,云服务提供商仍在进行早期构建,但我预计这种情况将会有所扭转。”
英特尔期待即将推出的、采用10纳米制程工艺的第10代计算机处理器即“Ice Lake”将带来额外的利润。英特尔首席执行官Bob Swan在电话会议上向投资者们表示,英特尔已经有两家工厂在生产这些芯片,第一批产品将在今年晚些时候上市销售。
“我期待着看到英特尔即将推出的10纳米笔记本电脑产品,以及机器学习训练、推理加速器和独立图形处理单元,这些都还没有投入市场,”Moorhead说。
另一个亮点是英特尔的物联网集团,取得了创纪录的季度营收,达到9.86亿美元,同比增长12%。英特尔自动驾驶部门Mobileye的收入增长了2.01亿美元,同比增幅为16%。
“很高兴看到这个未来大市场增长如此之好,我对MobilEye取得的增长并不感到惊讶,”Moorhead补充说。
Swan在电话会议上表示,英特尔该季度取得“优异表现”之后提高了全年指引。他说,英特尔预计2019年收入将达到695亿美元,高于此前预测的690亿美元。
Constellation Research分析师Holger Mueller表示,“超出预期永远不是什么坏事,而且当你提高全年指引时,投资者一定会高兴的。”
但Mueller警告说,英特尔仍需要提出新的想法以维持未来数年的增长。
“从长远来看,英特尔仍需要寻找新的增长途径。英特尔的管理层需要让十年前我们就了解的业务一直保持发展,它的核心业务不会增长太长时间,那么新的增长动力是什么?“
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。