近日,英特尔公布了2024年第一季度财报,财报显示英特尔2024年第一季度总营收127亿美元,同比增长9%。
其中,英特尔产品2024年第一季度总营收119亿美元,同比增长17%。其中客户端计算事业部第一季度总营收75亿美元,同比增长31%;数据中心和人工智能事业部第一季度总营收30亿美元,同比增长5%
从2024年第一季度开始,公司将按照以下运营部门报告各板块业绩:客户端计算事业部(CCG)、数据中心和人工智能事业部(DCAI)、网络与边缘事业部(NEX)、英特尔代工(Intel Foundry)、Altera(前英特尔可编程解决方案事业部)、Mobileye及其他。其中CCG、DCAI和NEX统称为“英特尔产品”,Altera、Mobileye及其他统称为“所有其他”。Altera此前归属于DCAI进行报告,现在已分拆为独立运营业务的FPGA公司。
英特尔公司首席执行官Pat Gelsinger表示,“我们正在重点领域稳步取得进展,并在本季度实现了坚实的业绩表现。在客户端、边缘和数据中心产品组合上,我们呈现了强大的创新能力,推动了英特尔产品在营收上的两位数增长。随着英特尔代工的发展,我们有望在明年重获制程方面的领先性。我们对推动全年持续增长的计划充满信心,因为我们加速了AI解决方案的创新,并在充满变化的市场中保持对执行、运营纪律的不懈关注,坚持为股东创造价值。”
英特尔Q1能取得这样的成绩,得益于多方面的努力:
1、制程领先性。在“四年五个制程节点”计划中,Intel 7,Intel 4和Intel 3已实现大规模量产;Intel 20A:将于2024年下半年随着Arrow Lake开始生产。
Intel 18A预计将于2024年第二季度发布1.0版本的PDK(制程设计套件),并将于2025年上半年随着Clearwater Forest和Panther Lake开始生产。
在公布 “四年五个制程节点”之后的制程技术路线图,Intel 14A将是Intel 18A之后的下一个先进制程节点
2、代工业务。为了巩固了英特尔在芯片制造和芯片设计领域的优势,英特尔首推面向AI时代的系统级代工——英特尔代工,提供从工厂网络到软件的全栈式优化。
3、产品持续迭代创新。在AI方面,英特尔全面拥抱人工智能。在英特尔on产业创新大会上,推出英特尔Gaudi 3 AI加速器,这是可以与NVIDIA相抗衡的AI芯片。
通过超以太网联盟(UEC),英特尔引领面向AI高速互联技术(AI Fabrics)的开放式以太网网络创新;宣布将创建一个开放平台助力企业级AI,这一平台将通过如RAG技术,进一步增强企业数据以及至强和Gaudi的用例;宣布面向数据中心、云和边缘的下一代英特尔至强6处理器的全新品牌。
4、客户和合作伙伴扩展。包括微软在内的两家大型公司承诺采用Intel 18A制程节点,总计已有六家外部客户向英特尔代工承诺采用该节点。
Synopsys、Cadence、Siemens、Ansys、Lorentz和Keysight宣布其工具和IP已准备就绪,可帮助代工客户加速基于Intel 18A制程节点的先进芯片设计。
亚马逊云科技(AWS)、联想、Red Hat、SAP和Wipro支持在2024年世界移动通信大会上发布的英特尔边缘平台。
戴尔科技计划将Gaudi 3芯片集成到其专用人工智能系统PowerEdge XE9680中;戴尔服务器的Gaudi 3版本在发布前将可在英特尔开发者云中访问。
NAVER、戴尔科技、博世和超微公司等众多客户和合作伙伴承诺使用英特尔Gaudi 3 AI加速器。
谷歌云宣布推出新的通用虚拟机实例C4和N4,这是市场上首批采用第五代英特尔至强处理器的云虚拟机。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。