AI 芯片初创公司 Cerebras Systems 表示,在计划进行首次公开募股 (IPO) 之前,已经清除了一个关键障碍,声称已解决了美国外国投资委员会 (CFIUS) 对其资金来源的担忧。
监管机构最关注的是 Cerebras 对阿联酋 AI 明珠企业 G42 的依赖。根据该公司 9 月份的 IPO 文件显示,G42 在 2024 年上半年贡献了超过 87% 的收入。
自 2023 年年中以来,对中东国家的 AI 加速器和系统出口受到严格控制,美国芯片设计公司需要获得特殊许可才能在该地区销售产品。为避免触发出口限制,G42 出资约 9 亿美元在美国建设了多个基于 Cerebras 晶圆级 CS2 和 CS3 设计的 AI 超级计算机,以便远程访问。
G42 原计划作为 IPO 的一部分收购超过 2200 万股 Cerebras 股份。然而,这显然引起了 CFIUS 的关注。
正如我们此前报道,G42 受到美国情报机构的审查,据报道担心这家总部位于阿联酋的公司可能向中国提供先进技术和数百万人的基因数据访问权限。
这些担忧最终促使 G42 切断了与包括华为在内的一些供应商的联系,以期安抚美国出口管理部门,并消除与 Cerebras 和 Microsoft 合作的障碍。
据彭博社周一报道,Cerebras 称通过修改与 G42 的协议解决了所有悬而未决的 CFIUS 担忧,将这家阿联酋科技公司限制为无表决权股份——这一举措使进一步审查变得不必要。
在给 El Reg 的电子邮件中,Cerebras 坚称已经解决了与 CFIUS 的所有异议,并未做进一步评论。美国财政部拒绝置评。
总部位于加利福尼亚州的 Cerebras 首席执行官 Andrew Feldman 在 LinkedIn 上兴奋地表示:"我很高兴宣布,在与我们的战略合作伙伴 G42 密切合作下,Cerebras Systems 已与 CFIUS 达成积极的解决方案,并正在向前推进。"
这位高管还感谢美国政府和阿联酋统治者对美国人工智能公司的支持。
此进展发生在路透社报道 Cerebras 上市因等待特朗普政府关键官员任命而推迟不到一周之后。
Cerebras 计划的 IPO 条款尚未披露,但据彭博社此前报道,预计将以 70-80 亿美元的估值筹集高达 10 亿美元。
虽然 G42 仍是 Cerebras Systems 最大的客户之一,但该芯片初创公司显然旨在通过本月早些时候宣布的横跨美国、加拿大和法国的大规模基础设施建设,支持高性能推理即服务平台,来实现客户群的多样化。
该公司承诺到 2025 年底在六个新数据中心部署超过一千个晶圆级加速器。
虽然与 xAI 等公司正在建设的十万多个 GPU 装置相比这个数字可能并不算多,但值得注意的是,Cerebras 盘子大小的芯片每个在 FP16 精度下可实现高达 125 petaFLOPS 的性能,约为用于建造田纳西州孟菲斯市 Colossus 超级计算机的 Nvidia H100 系列的 62 倍。
Cerebras 的大多数新站点将与 G42 合作运营,这意味着他们对容量有优先使用权。然而,该公司将完全控制其在俄克拉荷马市和加拿大蒙特利尔的站点。
除了模型训练外,Cerebras 正将高吞吐量推理作为关键差异化因素,比如 DeepSeek 的 Llama3.3 70B R1 推理模型。根据 Artificial Analysis 记录的基准测试,该芯片设计公司声称其系统可以以每秒 1,508 个 token 的速度提供此类规模的模型服务——远快于传统的基于 GPU 的提供商。
好文章,需要你的鼓励
Genspark推出超级智能体,将"氛围编程"概念扩展至企业工作流程,实现"氛围工作"模式。该系统采用9个大语言模型的专家混合架构,配备80多种工具和10多个数据集,通过规划-执行-观察-回溯循环运行。系统能自主处理复杂业务任务,甚至代替用户拨打电话。45天内实现3600万美元年收入,展现了自主智能体平台的商业可行性,挑战传统企业AI架构理念。
北京大学和百度VIS联合研发的MV-AR技术,首次让AI学会像人类一样逐步观察物体,通过自回归方式生成多视角一致图像。该技术解决了传统方法在处理大视角差异时的一致性问题,支持文字、图像、形状等多种输入,在3D内容创作、机器人视觉等领域具有广阔应用前景。
医疗保健已成为AI应用的热点领域,在疾病诊断、康复监测和新药开发方面证明了其价值。然而,行业仍面临临床人员短缺、人口老龄化等挑战。AI智能体作为下一波AI变革浪潮,相比现有AI工具,能够执行更复杂的任务并减少人工干预。它们不仅能被动提供信息,还能主动采取行动,如自动分诊调度、辅助临床决策、远程患者监护等,有望在十年内彻底改变医疗服务的提供、管理和体验方式。
Microsoft和Georgia Tech研究团队开发了SlimMoE技术,能将超大AI模型压缩到原来的10-20%大小而性能基本不变。该技术采用多阶段渐进式压缩,保留所有专家模块但精简内部结构,成功将419亿参数的模型压缩为76亿和38亿参数版本,让原本需要企业级硬件的AI能力可在普通电脑上运行,大大降低了AI技术使用门槛。