根据观察可以发现,尽管AMD和英伟达GPU的市占率增速确在加快,但AI数据中心加速器的预期增长率却有所放缓。
根据苏姿丰的预测,在生成式AI热潮的首个六年周期(2023年至2028年)之内,全球在数据中心AI加速器上投入的资金将在7000亿美元到9000亿美元之间,具体数字大家可以根据主观判断在区间内任意选择。也就是说,全球市场在AI系统上的支出总值将达到2万亿美元级别(我们将在后文中具体解释计算过程),人工智能正在吞噬整个世界。
希望不是字面意义上的“吞噬”才好。
我们首先得明确一点,相关性并不是因素性,因此AMD最新预测中AI加速器收入增幅放缓,并不单纯是因为AMD和英伟达正不断向市场中投放越来越多的GPU供应。但话又说回来,荣格曾经严格论证过同步性理论,这是一种只存在于高级生物头脑当中的非因果性关联原则,提醒我们在分析问题时别把逻辑挖得太深、时间推得太远。
不管具体原因如何吧,总之我们确实在为AI复合体支付成本,苏姿丰也在用实际行动不断推进这个依托于AI的总体目标市场(TAM)。就在上周,Advancing AI大会在旧金山召开,认为全世界在未来六年内将继续对AI进行巨额投入。
不断扩张的总体目标市场承载起各种加速器方案
早在2023年6月,在Datacenter and AI Technology Premiere大会的AMD CPU与GPU计算引擎增强功能预览环节,苏姿丰就曾经对计划于今年晚些时候推出的第三代“Antares”数据中心GPU做出过基准预测:
如果放大上图,就会发现其中标出了“数据中心AI加速器总体目标市场:GPU、FPGA和其他”,那接下来我们就围绕这几个重点展开讨论。
可以这么讲,FPGA目前对整体市场的影响甚至连噪声都称不上,这主要是因为GPU加速器在AI工作负载市场中的占比太过于庞大。至于其他部分,则大多数由后起之秀构成,其中可能包括/未包括谷歌、亚马逊云科技、微软、Meta Platforms等科技巨头自研加速器所创造的价值。
短短六个月之后,随着“Antares”MI300A和MI300X加速器的推出,生成式AI热潮迎来了首轮爆发,苏姿丰也再次大幅上调整了对于数据中心AI市值的预测。
不仅是2023年的基准收入水平将高于预期,从2023年至2027年之间的年均复合增长率(CAGR)也得到大幅上调,来到70%。最终结果就是,到2027年AMD预计加速器销售额将超过4000亿美元。
而随着上周Advancing AI大会上MI325X和MI355X的正式亮相,苏姿丰又做出了另一项预测,只是这次预测的终点从2027年延伸到了2028年:
数据中心AI加速器销售额的450亿美元保持不变,但现在预计终端收入为5000亿美元,年均复合增长率则以2028年(而非之前的2027年)计算。另外,随着预测周期的延长,原本的乐观期待也开始逐渐消退,导致年均复合增长率随之降低。最新版本认为这项增长率将只高于60%,而非70%。换句话说,苏姿丰和她的AMD在下调预期的同时又在周期上额外增加了一年,希望分散人们对于增长数字下滑的注意力。
重要提示:哪怕是给定了两个时间端点和年均复合增长率时,我们也无法真正判断这两端之间的具体数字走势。这有点像个黑匣子,唯一确定的就是开头的数字和末尾的数字。期间可能会出现大幅震荡,但与之对应的处均复合增长率并不会改变。这虽然限制了这项指标的重要性,但已经是我们能够用于预测的最佳工具,帮助我们在两个端点之间进行线性思考,而且任何差异都将在足够长的时间内被平均化分摊。
因此,如果我们假设AMD对于数据中心AI加速器支出的这三条预测在两个时间端点间呈线性增长,那么在均匀补充上中间的空白之后,最终结果将如下表所示:
中间几年的估算值以红色粗斜体标记,这是我们根据年均复合增长率计算得出的每一年销售总额。
根据AMD最新做出的预期调整,我们可以用两种潜在方式填充这份图表。
第一种就是继续保留之前 2023年12月公布的2023年至2027年AI加速器销售额预测,只额外添加2028年的新终点。我们认为AMD想要表达的肯定不是这个意思,因为如果是这样,那就意味着如上表所示,2028年AI加速器支出增长将会大幅放缓。
第二种情况则是对整个预测模型做出修订,这应该也是AMD想要达到的效果(否则也无法解释为什么此次公布了更低的年均复合增长率数字)。如大家所见,2024年至2027年(含)之间有1560亿美元AI加速器销售额被从结果中移除。与2023年12月的此前预测相比,2024年10月最新预测的累计销售额将减少这1560亿美元。
AI加速器成本约占其相关系统总体成本的一半,而网络则在其上再额外增加20%左右的投入。这种估算方法假设要部署大量闪存、主内存容量以及强大的主机CPU来驱动AI工作负载中的串行部分,由此建立起合理的AI服务器。在这个基础上再增加20%左右,就能计算出由AI服务器构建AI集群的网络成本。
那么如果将2023年至2028年AI加速器支出的7370亿美元乘以2,就能得到AI服务器支出约在1.5万亿美元左右,加上网络就是1.8万亿美元。最后加上系统软件,则基本可以认为期间AI系统总投入将达到2万亿美元量级。
如果接下来企业买家真的按照这个路子执行下去,那么除了AI服务器支出之外,其余服务器和存储市场遭遇衰退也就完全在情理之中了。
但现在,这已经是最后才需要考虑的因素了。如果全世界真的将在2023年至2028年这六年间在AI系统身上砸下2万亿美元,那么投资回报方面的压力肯定就相当大了。换句话说,我们希望在抵消经济成本的同时,再至少增加2万亿美元的经济收入。实际上,最好能把收益再提高一整个数量级。希望这种收益不是来自裁员,而是做出以往无法实现的探索。但哪怕是最乐观的猜测,裁员的贡献可能也要在其中占比一半。而且考虑到巨大的投入回报压力,再加上AI系统对于人类员工的替代效果,没准所有收益都是通过裁员方式来实现……至少我们要对此做好心理预期。
但千万不要忘记,如果人丢掉了工作,税收来源也将随之消失,自然谈不上什么全民基本收入。当然,时至今日也没有哪个人类经济实体能够真正贯彻全民基本收入,所以这事不提也罢。更加讽刺的是,那些整天喊着支持全民基本收入的家伙,脑袋里想的永远是不能影响到他们自己的收入。所以从这个角度讲,全民努力工作到老迈不堪才是最可能出现的结局。但无论是哪种情况,我希望这至少出自全人类的自主选择、出自全人类的共同福祉。
好文章,需要你的鼓励
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
欧洲太空通信产业发展迅猛。乌克兰Kyivstar获得监管批准测试Starlink直连手机服务,完成了与星链卫星网络的SIM卡集成测试,计划2025年第四季度推出支持短信和OTT消息的D2C服务。同时,CTO宣布即将发射首个再生5G毫米波载荷,其J-1任务旨在演示轨道超高速低延迟5G传输。该公司正构建超低轨道星座,使用5G毫米波频谱提供高速低延迟连接。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。