AI 芯片初创公司 Cerebras Systems 表示,在计划进行首次公开募股 (IPO) 之前,已经清除了一个关键障碍,声称已解决了美国外国投资委员会 (CFIUS) 对其资金来源的担忧。
监管机构最关注的是 Cerebras 对阿联酋 AI 明珠企业 G42 的依赖。根据该公司 9 月份的 IPO 文件显示,G42 在 2024 年上半年贡献了超过 87% 的收入。
自 2023 年年中以来,对中东国家的 AI 加速器和系统出口受到严格控制,美国芯片设计公司需要获得特殊许可才能在该地区销售产品。为避免触发出口限制,G42 出资约 9 亿美元在美国建设了多个基于 Cerebras 晶圆级 CS2 和 CS3 设计的 AI 超级计算机,以便远程访问。
G42 原计划作为 IPO 的一部分收购超过 2200 万股 Cerebras 股份。然而,这显然引起了 CFIUS 的关注。
正如我们此前报道,G42 受到美国情报机构的审查,据报道担心这家总部位于阿联酋的公司可能向中国提供先进技术和数百万人的基因数据访问权限。
这些担忧最终促使 G42 切断了与包括华为在内的一些供应商的联系,以期安抚美国出口管理部门,并消除与 Cerebras 和 Microsoft 合作的障碍。
据彭博社周一报道,Cerebras 称通过修改与 G42 的协议解决了所有悬而未决的 CFIUS 担忧,将这家阿联酋科技公司限制为无表决权股份——这一举措使进一步审查变得不必要。
在给 El Reg 的电子邮件中,Cerebras 坚称已经解决了与 CFIUS 的所有异议,并未做进一步评论。美国财政部拒绝置评。
总部位于加利福尼亚州的 Cerebras 首席执行官 Andrew Feldman 在 LinkedIn 上兴奋地表示:"我很高兴宣布,在与我们的战略合作伙伴 G42 密切合作下,Cerebras Systems 已与 CFIUS 达成积极的解决方案,并正在向前推进。"
这位高管还感谢美国政府和阿联酋统治者对美国人工智能公司的支持。
此进展发生在路透社报道 Cerebras 上市因等待特朗普政府关键官员任命而推迟不到一周之后。
Cerebras 计划的 IPO 条款尚未披露,但据彭博社此前报道,预计将以 70-80 亿美元的估值筹集高达 10 亿美元。
虽然 G42 仍是 Cerebras Systems 最大的客户之一,但该芯片初创公司显然旨在通过本月早些时候宣布的横跨美国、加拿大和法国的大规模基础设施建设,支持高性能推理即服务平台,来实现客户群的多样化。
该公司承诺到 2025 年底在六个新数据中心部署超过一千个晶圆级加速器。
虽然与 xAI 等公司正在建设的十万多个 GPU 装置相比这个数字可能并不算多,但值得注意的是,Cerebras 盘子大小的芯片每个在 FP16 精度下可实现高达 125 petaFLOPS 的性能,约为用于建造田纳西州孟菲斯市 Colossus 超级计算机的 Nvidia H100 系列的 62 倍。
Cerebras 的大多数新站点将与 G42 合作运营,这意味着他们对容量有优先使用权。然而,该公司将完全控制其在俄克拉荷马市和加拿大蒙特利尔的站点。
除了模型训练外,Cerebras 正将高吞吐量推理作为关键差异化因素,比如 DeepSeek 的 Llama3.3 70B R1 推理模型。根据 Artificial Analysis 记录的基准测试,该芯片设计公司声称其系统可以以每秒 1,508 个 token 的速度提供此类规模的模型服务——远快于传统的基于 GPU 的提供商。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。