2022年半导体收入总额为5996亿美元
2023年4月28日 - 根据Gartner公司的最新预测,2023年全球半导体收入将下降11.2%。2022年半导体市场收入总额为5996亿美元,较2021年小幅增长0.2%。
半导体市场的短期前景愈加不容乐观。预计2023年全球半导体收入总额为5320亿美元(见表一)。
Gartner研究业务副总裁Richard Gordon表示:“经济衰退的持续使终端市场电子产品需求的疲态正在从消费者蔓延到企业,令投资环境变得扑朔迷离。另外,芯片市场的供过于求导致库存增加和芯片价格下降,加剧了今年半导体市场的下滑。”
表一、2022-2024年全球半导体收入预测(单位:10亿美元)
2022 |
2023 |
2024 |
|
收入 |
599.6 |
532.2 |
630.9 |
增长率(%) |
0.2 |
-11.2 |
18.5 |
来源:Gartner(2023年4月)
预计2023年存储器收入将下降35.5%,但将在2024年反弹
存储器行业正面临产能和库存过剩问题,这将在2023年继续对平均销售价格(ASP)造成巨大的压力。预计2023年存储器市场收入总额为923亿美元,下降35.5%。但该市场将在2024年回升70%。
尽管DRAM市场产量保持不变,但该市场将在2023年的大部分时间里由于疲软的终端设备需求以及DRAM厂商的高库存而出现明显的供应过剩。Gartner分析师预测,2023年DRAM市场收入总额为476亿美元,下降39.4%。但该市场将在2024年供不应求,DRAM收入将随着价格的回升而增长86.8%。
Gartner预测在接下来的六个月中, NAND市场将面临与DRAM市场类似的状况。疲软的需求和厂商的大量库存将造成供应过剩,导致价格大幅下降。预计2023年NAND市场收入将减少至389亿美元,下降32.9%。但该市场的收入将在2024年由于严重供应短缺而增长60.7%。
Gordon表示:“半导体行业将在未来十年面临着一系列长期挑战。过去几十年的大量重要市场驱动因素已成强弩之末,尤其是在缺乏技术创新的个人电脑(PC)、平板电脑和智能手机市场。”
“此外,新冠疫情和中美贸易紧张局势加速了去全球化趋势以及技术民族主义的兴起。如今,半导体已被视为一个国家安全问题。世界各国政府正争相构建自给自足的半导体和电子产品供应链,鼓励企业采取在岸外包模式。”
半导体需求分化
个人电脑、平板电脑和智能手机半导体市场的增长正处于停滞。预计2023年这些市场的收入总和为1676亿美元,占半导体收入的31%。Gordon表示:“这些大容量市场已经饱和并沦为缺乏技术创新亮点的替代市场。”
与此同时,汽车、工业、军事/民用航空半导体市场将实现增长。预计2023年汽车半导体市场收入为769亿美元,增长13.8%。
未来将出现更多但规模更小的终端市场。终端市场将进一步分化,增长将分散到汽车、工业、物联网和军事/航空航天领域的多个不同部门。
Gordon表示:“消费者可支配支出对终端市场需求的影响将有所减少,而企业资本支出对终端市场需求的影响将有所增加。供应链将变得更加复杂,涉及更多的中间商和各种不同的市场渠道,并且将需要不同类型的产能来满足不同的终端市场需求。”
Gartner客户可以在“全球半导体和电子产品预测数据库,2023年第一季度更新”中了解更多信息。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。