据报道,总部位于英国的芯片设计公司 Arm Holdings Plc. 计划推出其首款完整半导体产品,并已获得 Facebook 母公司 Meta Platforms Inc. 作为首批客户之一。
根据金融时报的独家报道,Arm 首次计划自主开发硬件,此举将使其与许多现有客户形成直接竞争。
Arm 在芯片制造领域是一个无处不在的名字,但它从未制造过自己的芯片。相反,它向其他公司授权一项称为指令集的关键技术,这是构建高性能和节能芯片的一种蓝图。最近,该公司开始销售更复杂的核心设计,客户可以更轻松地进行定制。
Arm 在芯片制造行业的独特地位使其赢得了芯片技术公司中的"瑞士"之称,因为它一直被视为以中立态度对待 Apple、Nvidia、Qualcomm、Intel、AWS 和 Microsoft 等客户,从不偏袒任何特定公司。
但这种情况可能会改变,因为人工智能芯片市场的巨额投资对公司来说具有难以抗拒的吸引力。仅 Meta 一家就表示计划在今年在 AI 基础设施上投资高达 650 亿美元,虽然其中大部分资金将用于购买 Nvidia 的图形处理器,但也会购买包括 Intel 和 AMD 等公司的中央处理器在内的其他产品。据悉,Meta 也在开发自己的芯片设计。
金融时报表示,Arm 计划设计服务器 CPU,而不是在 GPU 市场与 Nvidia 和 AMD 竞争。
2020 年,Nvidia 试图以 400 亿美元从 SoftBank Group Corp. 收购 Arm,但由于监管机构对 Arm 在芯片市场的关键作用表示担忧,该交易被叫停。Arm 随后选择上市,其市值现已增长至超过 1730 亿美元。SoftBank 仍然是其最大股东。
今年以来,Arm 的股票已上涨 29%,因为它越来越被视为 AI 系统的关键推动者。该公司的管理团队已告诉投资者,作为扩大收入来源计划的一部分,它正寻求向客户销售更先进的技术。
建造自己的芯片这一举动并不令人意外,因为 SoftBank 创始人孙正义已将 Arm 作为其建立庞大 AI 基础设施网络计划的核心。上个月,孙正义与美国总统特朗普、OpenAI 首席执行官 Sam Altman 和 Oracle 创始人兼首席技术官 Larry Ellison 一起在白宫出现,他们公布了计划投资 5000 亿美元用于 AI 基础设施的星门计划。SoftBank 和阿布扎比国家基金 MGX 将提供大部分资金,Arm 也被确认为该计划的技术合作伙伴。
本月初,在公司最新的财务业绩电话会议上,Arm CEO Rene Haas 提到 Meta、Google (将投资 750 亿美元用于 AI 基础设施) 和 Microsoft (将投资 800 亿美元) 的支出计划是公司的一个重大机遇,这也是另一个线索。
"没有人在退缩,"Haas 指出,他指的是这些巨头在中国 AI 初创公司 DeepSeek Ltd. 崛起的背景下,正在加倍押注 AI 支出。
此外,SoftBank 目前正试图收购另一家芯片制造商 Ampere LLC,该公司得到 Oracle 的大力支持,并为数据中心服务器制造 CPU。据金融时报报道,该交易对 Arm 建造自己的芯片计划至关重要。
分析师 Rob Enderle 表示,尽管销售自己的芯片可能带来丰厚的利润,但如果 Arm 继续推进这一计划,也可能会疏远一些主要客户。
"与授权用户竞争是失去这些授权用户的好方法,如果不小心的话,这确实对那些使用 Arm 技术的客户构成风险,"该分析师说。"这意味着他们将在使用其技术的同时与 Arm 本身竞争,但当然,Arm 作为技术所有者将具有显著优势。"
Enderle 补充说,对 Arm 来说,这可能是一个经过计算的举动,因为 AI 行业的利润足够丰厚,可能通过直接销售获得足够的收入来抵消任何损失的授权收入。
"当你授权某些东西时,总是存在风险,因为拥有许可证的一方最终可能会想要你的收入和利润,如果它确实决定进入你的领域,这样的客户几乎没有追索权,"他说。
Constellation Research Inc. 的 Holger Mueller 表示,这一举措似乎是公司的一次冒险赌博,因为从纯粹依靠授权收入转向其他模式将稀释公司的利润率。
"这将使 Arm 面临供应和生产问题,并因芯片市场销售的过山车性质而导致更大的股票波动,同时也会令现有客户不满,"Mueller 说。"这很令人惊讶,但无论如何,Arm 的管理层都意识到了这一切,所以他们一定能看到其中的好处。"
金融时报表示,Arm 可能会在今年夏季或更早宣布其计划,但公司本身拒绝对此报道发表评论。
然而,行业发展方向确实很明确。四天前,路透社报道称,OpenAI 正在寻求开发自己的芯片,以减少对 Nvidia GPU 的依赖。据称其已处于高级设计阶段,下一步可能是将设计转交给台湾半导体制造商台积电进行实验性生产和测试。
同时,福布斯本周报道称,Meta 正在寻求收购韩国 AI 芯片初创公司 FuriosaAI Inc.,作为其开发 Nvidia GPU 替代品计划的一部分。报道称,该交易可能最早在本月完成。
当然,云基础设施巨头 AWS、Google 和 Microsoft 都已开发了自己的 AI 加速器,作为 Nvidia 硬件的替代方案提供给云客户。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。