至顶网服务器频道 09月18日 新闻消息:
根据管理咨询公司麦肯锡(McKinsey)的、资深合伙人Bill Wiseman表示,在经过三年时间和数千亿美元规模的并购之后,全球半导体行业的整合几近完成。
Wiseman在2001年加入麦肯锡之前,曾为IBM设计了混合信号集成系统,再之前是一位美国海报突击队队员。他说:“问题是并没有剩下多少可交易的了,因为现在市场中已经没有那么多具有吸引力的收购目标了。”
近日在Semicon Taiwan大会上的开幕主题演讲中,Wiseman表示,大多数整合是基于成本和协同效应的。长期以来,这个行业进展非常缓慢。
低潮期可能已经过去了,预计整个行业的收入规模将从去年的3397亿美元增长到今年的4000亿美元,而且整合开始看到成果,Wiseman这样表示。半导体的价格多年来首次出现增长,而且这里说的半导体不仅仅意味着内存芯片。
“因为整合,我们将会看到成熟产品的价格有所上涨,”Wiseman说。
这个行业的健康状况一个主要指标,就是研发成本与收入之比,即使是经过最近几次收购交易,这个数字仍然稳定地维持在14%到15%之间。如果增长到17%,芯片提供商们就需要提高价格了,“大家不希望看到这一点发生——除非你是内存提供商。”
其他因素还也预示着收购热潮的结束。
最近发生了很多监管审批阻碍的事件,特别是那些中国政府支持的项目。他说,就在前不久,美国总统特朗普阻挠了一家得到中国政府支持的投资公司收购Lattice Semiconductor公司。
前美国总统奥巴马在1月卸任之前曾发布一份报告,警告称,中国扩张国内芯片生产的雄心将会威胁到美国的半导体产业。根据麦肯锡的预测,中国清华集团或者其他政府资助的实体想要收购美国芯片制造商的尝试,都会受到阻挠。如果是这样的话,中国成为全球芯片行业主要参与者的进度,可能也会放缓下来。
现在也许是时候让芯片行业中的收购方坐下来好好消化一下他们吞并的公司了。
Wiseman说:“大多数有信心收购的企业,都在忙于整合他们所购买的公司。”他对全球芯片制造商的业务战略提出这样的建议。
悬而未决的交易
据麦肯锡的预测,还有一些悬而未决的交易将会为芯片行业的并购活动画上句号。
东芝利润丰厚的NAND闪存内存业务,得到由Bain Capital领导的多个团体、西数和富士康的热烈追捧。据彭博社报道,苹果也积极参与到投标中。
苹果依赖东芝为自己的iPhone和iPod提供闪存内存,苹果也希望确保稳定供应,以控制自己对竞争对手三星的依赖,三星也为最新的iPhone提供OLED屏,并且是苹果在智能手机市场中的主要竞争对手。
内存供应商的数量已经从十几年前的32家DRAM公司,缩减到如今的3家:三星、海力士、美光。在NAND方面,有4家主要IP持有方:美光与英特尔的合资公司;东芝与西数之间的联盟;三星;海力士。
此外高通也计划收购NXP,价格大约是每股110美元,总现金额380亿美元。作为最大的移动手机芯片制造商,高通已经把对NXP的邀约延长到9月22日,这也是自去年11月宣布交易消息以来的第8次延期。
欧洲监管机构对这笔交易提出了质疑,而NXP股东例如Elliot Management一直表示,高通对NXP的报价并不具有吸引力。高通公司董事长Paul Jacobs表示,他认为报价是很公平的价格。
9月也许是这次并购尘埃落定的时候,芯片行业仅存的巨头们可以预见到强劲的销售和更好的盈利能力。在这个生态系统中,并不是所有人都会高兴地看到这一点。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。