
根据传闻以及日前Ampere Computing的亲自爆料,今年年内,英国芯片设计厂商ARM以及同阵营中专注服务器业务的初创公司Ampere Computing很可能会双双上市,目前首轮公开募股文件已经秘密提交完成。
今年2月,监管机构重拳出击、打碎了英伟达斥巨资收购ARM的宏大计划。消息一出,关于ARM即将独立上市的传闻甚嚣尘上。结合这一背景,人们自然开始关注ARM这家CPU技术许可方、以及作为被许可方的Ampere能否获得可观资本注入,上市申请又是否同样受到审查机构的“百般刁难”。
作为一家私营企业,Ampere Computing在一年多之前刚刚从投资方手中筹集到迄今为止最大的一笔融资,总额达3亿美元。而此轮融资的唯一参与者就是甲骨文,数据库巨头明显认为基于ARM架构的Ampere Altra CPU将在云计算领域拥有强劲竞争力。事实上,根据美国证券交易委员会披露的文件,甲骨文已经先后向Ampere投入超过4亿美元,而且这家初创企业除甲骨文外就只有两家投资方——ARM以及私募股权公司凯雷投资集团。
前一段时间,媒体曾纷纷报道微软Azuer开始采用Ampere Computing的80核“Quicksilver”Altra芯片,并认定此举代表着作为公有云服务领域的两股中坚力量,微软已经挑起了与亚马逊云科技之间的新一轮ARM服务器之战。目前,亚马逊方面能够应战的是内部原研、基于ARM架构的第三代Graviton芯片。
但随着Ampere Computing在未来某个时间点上市,这家芯片设计商不仅有望获得更多资金以扩大其云客户群体,甚至有可能在业绩压力的推动下进一步冲击企业级服务器市场。毕竟过去几年以来,AMD已经成功为华尔街带来了高达两位数的数据中心业务增长,Ampere至少也要达到相同的水平才能吸引到投资者的目光。
而且最近还出现了有趣的转折:在此之前,Ampere其实是把ARM提供的“现成”Neoverse N1核心分别用于了2020年及2021年推出的Altra及Altra Max芯片当中;而从今年起,Ampere计划在即将推出的5纳米“Siryn”芯片以及2023年的再下一代处理器中使用下一代定制设计核心。
这些新款处理器同样采用ARM的指令集架构——目前尚不清楚具体架构版本,但我们怀疑是v9。由此可见,Ampere Computing这家初创企业必须支付一大笔费用才能获得ARM ISA许可,而且这项许可的授权成本要比ARM现成核心高得多。这还只是整体成本的一部分:Ampere Computing可能还需要增加更多人手,确保其核心能够在性能与效率层面对x86架构以及其他ARM架构芯片形成比较优势。
考虑到这些现实压力,Ampere Computing唯一的出路也就只有上市融资。由以上背景推断,Ampere公司过去几年来的运营成本可能已经大幅增长,包括将处理器开发思路由使用现成的许可核心、转向设计定制核心,自然需要更加稳妥的融资渠道。而且如果Ampere Computing的下一款芯片真的能够在云服务商及超大规模计算客户市场上一鸣惊人——特别是用硬实力压制住Azure等其他客户当前使用的Altra CPU——那么Ampere自己、投资者乃至ARM都将获得丰厚的回报。很明显,现在的ARM阵营比以往任何时候都需要盟友的支持,下面就看华尔街愿不愿意伸出援手了。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。