根据传闻以及日前Ampere Computing的亲自爆料,今年年内,英国芯片设计厂商ARM以及同阵营中专注服务器业务的初创公司Ampere Computing很可能会双双上市,目前首轮公开募股文件已经秘密提交完成。
今年2月,监管机构重拳出击、打碎了英伟达斥巨资收购ARM的宏大计划。消息一出,关于ARM即将独立上市的传闻甚嚣尘上。结合这一背景,人们自然开始关注ARM这家CPU技术许可方、以及作为被许可方的Ampere能否获得可观资本注入,上市申请又是否同样受到审查机构的“百般刁难”。
作为一家私营企业,Ampere Computing在一年多之前刚刚从投资方手中筹集到迄今为止最大的一笔融资,总额达3亿美元。而此轮融资的唯一参与者就是甲骨文,数据库巨头明显认为基于ARM架构的Ampere Altra CPU将在云计算领域拥有强劲竞争力。事实上,根据美国证券交易委员会披露的文件,甲骨文已经先后向Ampere投入超过4亿美元,而且这家初创企业除甲骨文外就只有两家投资方——ARM以及私募股权公司凯雷投资集团。
前一段时间,媒体曾纷纷报道微软Azuer开始采用Ampere Computing的80核“Quicksilver”Altra芯片,并认定此举代表着作为公有云服务领域的两股中坚力量,微软已经挑起了与亚马逊云科技之间的新一轮ARM服务器之战。目前,亚马逊方面能够应战的是内部原研、基于ARM架构的第三代Graviton芯片。
但随着Ampere Computing在未来某个时间点上市,这家芯片设计商不仅有望获得更多资金以扩大其云客户群体,甚至有可能在业绩压力的推动下进一步冲击企业级服务器市场。毕竟过去几年以来,AMD已经成功为华尔街带来了高达两位数的数据中心业务增长,Ampere至少也要达到相同的水平才能吸引到投资者的目光。
而且最近还出现了有趣的转折:在此之前,Ampere其实是把ARM提供的“现成”Neoverse N1核心分别用于了2020年及2021年推出的Altra及Altra Max芯片当中;而从今年起,Ampere计划在即将推出的5纳米“Siryn”芯片以及2023年的再下一代处理器中使用下一代定制设计核心。
这些新款处理器同样采用ARM的指令集架构——目前尚不清楚具体架构版本,但我们怀疑是v9。由此可见,Ampere Computing这家初创企业必须支付一大笔费用才能获得ARM ISA许可,而且这项许可的授权成本要比ARM现成核心高得多。这还只是整体成本的一部分:Ampere Computing可能还需要增加更多人手,确保其核心能够在性能与效率层面对x86架构以及其他ARM架构芯片形成比较优势。
考虑到这些现实压力,Ampere Computing唯一的出路也就只有上市融资。由以上背景推断,Ampere公司过去几年来的运营成本可能已经大幅增长,包括将处理器开发思路由使用现成的许可核心、转向设计定制核心,自然需要更加稳妥的融资渠道。而且如果Ampere Computing的下一款芯片真的能够在云服务商及超大规模计算客户市场上一鸣惊人——特别是用硬实力压制住Azure等其他客户当前使用的Altra CPU——那么Ampere自己、投资者乃至ARM都将获得丰厚的回报。很明显,现在的ARM阵营比以往任何时候都需要盟友的支持,下面就看华尔街愿不愿意伸出援手了。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。