2022年半导体收入总额为5996亿美元
2023年4月28日 - 根据Gartner公司的最新预测,2023年全球半导体收入将下降11.2%。2022年半导体市场收入总额为5996亿美元,较2021年小幅增长0.2%。
半导体市场的短期前景愈加不容乐观。预计2023年全球半导体收入总额为5320亿美元(见表一)。
Gartner研究业务副总裁Richard Gordon表示:“经济衰退的持续使终端市场电子产品需求的疲态正在从消费者蔓延到企业,令投资环境变得扑朔迷离。另外,芯片市场的供过于求导致库存增加和芯片价格下降,加剧了今年半导体市场的下滑。”
表一、2022-2024年全球半导体收入预测(单位:10亿美元)
2022 |
2023 |
2024 |
|
收入 |
599.6 |
532.2 |
630.9 |
增长率(%) |
0.2 |
-11.2 |
18.5 |
来源:Gartner(2023年4月)
预计2023年存储器收入将下降35.5%,但将在2024年反弹
存储器行业正面临产能和库存过剩问题,这将在2023年继续对平均销售价格(ASP)造成巨大的压力。预计2023年存储器市场收入总额为923亿美元,下降35.5%。但该市场将在2024年回升70%。
尽管DRAM市场产量保持不变,但该市场将在2023年的大部分时间里由于疲软的终端设备需求以及DRAM厂商的高库存而出现明显的供应过剩。Gartner分析师预测,2023年DRAM市场收入总额为476亿美元,下降39.4%。但该市场将在2024年供不应求,DRAM收入将随着价格的回升而增长86.8%。
Gartner预测在接下来的六个月中, NAND市场将面临与DRAM市场类似的状况。疲软的需求和厂商的大量库存将造成供应过剩,导致价格大幅下降。预计2023年NAND市场收入将减少至389亿美元,下降32.9%。但该市场的收入将在2024年由于严重供应短缺而增长60.7%。
Gordon表示:“半导体行业将在未来十年面临着一系列长期挑战。过去几十年的大量重要市场驱动因素已成强弩之末,尤其是在缺乏技术创新的个人电脑(PC)、平板电脑和智能手机市场。”
“此外,新冠疫情和中美贸易紧张局势加速了去全球化趋势以及技术民族主义的兴起。如今,半导体已被视为一个国家安全问题。世界各国政府正争相构建自给自足的半导体和电子产品供应链,鼓励企业采取在岸外包模式。”
半导体需求分化
个人电脑、平板电脑和智能手机半导体市场的增长正处于停滞。预计2023年这些市场的收入总和为1676亿美元,占半导体收入的31%。Gordon表示:“这些大容量市场已经饱和并沦为缺乏技术创新亮点的替代市场。”
与此同时,汽车、工业、军事/民用航空半导体市场将实现增长。预计2023年汽车半导体市场收入为769亿美元,增长13.8%。
未来将出现更多但规模更小的终端市场。终端市场将进一步分化,增长将分散到汽车、工业、物联网和军事/航空航天领域的多个不同部门。
Gordon表示:“消费者可支配支出对终端市场需求的影响将有所减少,而企业资本支出对终端市场需求的影响将有所增加。供应链将变得更加复杂,涉及更多的中间商和各种不同的市场渠道,并且将需要不同类型的产能来满足不同的终端市场需求。”
Gartner客户可以在“全球半导体和电子产品预测数据库,2023年第一季度更新”中了解更多信息。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。