近日,英特尔公布了2024年第一季度财报,财报显示英特尔2024年第一季度总营收127亿美元,同比增长9%。
其中,英特尔产品2024年第一季度总营收119亿美元,同比增长17%。其中客户端计算事业部第一季度总营收75亿美元,同比增长31%;数据中心和人工智能事业部第一季度总营收30亿美元,同比增长5%
从2024年第一季度开始,公司将按照以下运营部门报告各板块业绩:客户端计算事业部(CCG)、数据中心和人工智能事业部(DCAI)、网络与边缘事业部(NEX)、英特尔代工(Intel Foundry)、Altera(前英特尔可编程解决方案事业部)、Mobileye及其他。其中CCG、DCAI和NEX统称为“英特尔产品”,Altera、Mobileye及其他统称为“所有其他”。Altera此前归属于DCAI进行报告,现在已分拆为独立运营业务的FPGA公司。
英特尔公司首席执行官Pat Gelsinger表示,“我们正在重点领域稳步取得进展,并在本季度实现了坚实的业绩表现。在客户端、边缘和数据中心产品组合上,我们呈现了强大的创新能力,推动了英特尔产品在营收上的两位数增长。随着英特尔代工的发展,我们有望在明年重获制程方面的领先性。我们对推动全年持续增长的计划充满信心,因为我们加速了AI解决方案的创新,并在充满变化的市场中保持对执行、运营纪律的不懈关注,坚持为股东创造价值。”
英特尔Q1能取得这样的成绩,得益于多方面的努力:
1、制程领先性。在“四年五个制程节点”计划中,Intel 7,Intel 4和Intel 3已实现大规模量产;Intel 20A:将于2024年下半年随着Arrow Lake开始生产。
Intel 18A预计将于2024年第二季度发布1.0版本的PDK(制程设计套件),并将于2025年上半年随着Clearwater Forest和Panther Lake开始生产。
在公布 “四年五个制程节点”之后的制程技术路线图,Intel 14A将是Intel 18A之后的下一个先进制程节点
2、代工业务。为了巩固了英特尔在芯片制造和芯片设计领域的优势,英特尔首推面向AI时代的系统级代工——英特尔代工,提供从工厂网络到软件的全栈式优化。
3、产品持续迭代创新。在AI方面,英特尔全面拥抱人工智能。在英特尔on产业创新大会上,推出英特尔Gaudi 3 AI加速器,这是可以与NVIDIA相抗衡的AI芯片。
通过超以太网联盟(UEC),英特尔引领面向AI高速互联技术(AI Fabrics)的开放式以太网网络创新;宣布将创建一个开放平台助力企业级AI,这一平台将通过如RAG技术,进一步增强企业数据以及至强和Gaudi的用例;宣布面向数据中心、云和边缘的下一代英特尔至强6处理器的全新品牌。
4、客户和合作伙伴扩展。包括微软在内的两家大型公司承诺采用Intel 18A制程节点,总计已有六家外部客户向英特尔代工承诺采用该节点。
Synopsys、Cadence、Siemens、Ansys、Lorentz和Keysight宣布其工具和IP已准备就绪,可帮助代工客户加速基于Intel 18A制程节点的先进芯片设计。
亚马逊云科技(AWS)、联想、Red Hat、SAP和Wipro支持在2024年世界移动通信大会上发布的英特尔边缘平台。
戴尔科技计划将Gaudi 3芯片集成到其专用人工智能系统PowerEdge XE9680中;戴尔服务器的Gaudi 3版本在发布前将可在英特尔开发者云中访问。
NAVER、戴尔科技、博世和超微公司等众多客户和合作伙伴承诺使用英特尔Gaudi 3 AI加速器。
谷歌云宣布推出新的通用虚拟机实例C4和N4,这是市场上首批采用第五代英特尔至强处理器的云虚拟机。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。