存储器市场表现最差,降幅达到10%并且在2023年仍将面临挑战
2023年1月18日 - 根据Gartner公司的初步统计结果,2022年全球半导体总收入为6017亿美元,较2021年5950亿美元增长1.1%。排名前25位半导体厂商的总收入在2022年增长了2.8%,占到77.5%的市场份额。
Gartner研究副总裁Andrew Norwood表示:“许多半导体器件在2022年刚开始时由于缺货而延长交货时间并涨价,导致许多终端市场的电子器件产量减少,使得原厂开始通过囤积芯片库存来对冲缺货风险。”
“但到了2022年下半年,全球经济在高通胀、加息、能源成本上升和中国疫情封控的多重压力下开始放缓,影响了许多全球供应链。消费者也开始减少支出,使得个人电脑(PC)和智能手机的需求下降。之后,企业也因为全球经济衰退预期而开始减少支出。这些因素都影响了整个半导体市场的增长。”
半导体市场2022年的收入主要因为存储器和NAND闪存销售量的减少而下降了10.4%,三星电子仍保持出货量第一(见表一)。英特尔以9.7%的市场份额稳居第二。由于消费者PC市场大幅下滑并且在x86处理器这项核心业务上遭遇了激烈的竞争,英特尔的收入下降了19.5%。
表一、2022年全球排名前十半导体厂商收入(单位:百万美元)
|
2022年排名 |
2021年排名 |
厂商 |
2022年收入 |
2022年市场份额(%) |
2021年收入 |
2021年至2022年增长率(%) |
|
1 |
1 |
三星电子 |
65,585 |
10.9 |
73,197 |
-10.4 |
|
2 |
2 |
英特尔 |
58,373 |
9.7 |
72,536 |
-19.5 |
|
3 |
3 |
南韩海力士 |
36,229 |
6.0 |
37,192 |
-2.6 |
|
4 |
5 |
高通 |
34,748 |
5.8 |
27,093 |
28.3 |
|
5 |
4 |
美光科技 |
27,566 |
4.6 |
28,624 |
-3.7 |
|
6 |
6 |
博通 |
23,811 |
4.0 |
18,793 |
26.7 |
|
7 |
10 |
AMD |
23,285 |
3.9 |
16,299 |
42.9 |
|
8 |
8 |
德州仪器 |
18,812 |
3.1 |
17,272 |
8.9 |
|
9 |
7 |
联发科技 |
18,233 |
3.0 |
17,617 |
3.5 |
|
10 |
11 |
苹果 |
17,551 |
2.9 |
14,580 |
20.4 |
|
|
|
其他(前十名以外) |
277,501 |
46.1 |
271,749 |
2.1 |
|
|
|
合计 |
601,694 |
100.0 |
594,952 |
1.1 |
数据来源:Gartner(2023年1月)
2022年存储器收入下降10%
存储器在2022年占到半导体销售额的25%左右,其收入下降了10%,是表现最差的器件类别。由于电子器件原厂纷纷开始减少当初在预测需求走强时所积累的存储器库存,因此到2022年中期,存储器市场已显示出需求大幅跳水的迹象。现在情况已经恶化到了大多数存储器公司宣布削减2023年资本支出(capex)的地步,并且一些公司为了降低库存水平和试图恢复市场平衡而削减了晶圆产量。
2022年非存储器收入增长5%
2022年非存储器收入总体增长5.3%,但各个器件类别之间的表现差异很大。模拟器件以19%的涨幅位居第一,分立器件以15%的涨幅紧随其后。在汽车电气化、工业自动化和能源转型长期增长趋势的支撑下,汽车和工业终端市场产生了强劲的需求,进而推动了模拟与分立器件的增长。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。