根据观察可以发现,尽管AMD和英伟达GPU的市占率增速确在加快,但AI数据中心加速器的预期增长率却有所放缓。
根据苏姿丰的预测,在生成式AI热潮的首个六年周期(2023年至2028年)之内,全球在数据中心AI加速器上投入的资金将在7000亿美元到9000亿美元之间,具体数字大家可以根据主观判断在区间内任意选择。也就是说,全球市场在AI系统上的支出总值将达到2万亿美元级别(我们将在后文中具体解释计算过程),人工智能正在吞噬整个世界。
希望不是字面意义上的“吞噬”才好。
我们首先得明确一点,相关性并不是因素性,因此AMD最新预测中AI加速器收入增幅放缓,并不单纯是因为AMD和英伟达正不断向市场中投放越来越多的GPU供应。但话又说回来,荣格曾经严格论证过同步性理论,这是一种只存在于高级生物头脑当中的非因果性关联原则,提醒我们在分析问题时别把逻辑挖得太深、时间推得太远。
不管具体原因如何吧,总之我们确实在为AI复合体支付成本,苏姿丰也在用实际行动不断推进这个依托于AI的总体目标市场(TAM)。就在上周,Advancing AI大会在旧金山召开,认为全世界在未来六年内将继续对AI进行巨额投入。
不断扩张的总体目标市场承载起各种加速器方案
早在2023年6月,在Datacenter and AI Technology Premiere大会的AMD CPU与GPU计算引擎增强功能预览环节,苏姿丰就曾经对计划于今年晚些时候推出的第三代“Antares”数据中心GPU做出过基准预测:
如果放大上图,就会发现其中标出了“数据中心AI加速器总体目标市场:GPU、FPGA和其他”,那接下来我们就围绕这几个重点展开讨论。
可以这么讲,FPGA目前对整体市场的影响甚至连噪声都称不上,这主要是因为GPU加速器在AI工作负载市场中的占比太过于庞大。至于其他部分,则大多数由后起之秀构成,其中可能包括/未包括谷歌、亚马逊云科技、微软、Meta Platforms等科技巨头自研加速器所创造的价值。
短短六个月之后,随着“Antares”MI300A和MI300X加速器的推出,生成式AI热潮迎来了首轮爆发,苏姿丰也再次大幅上调整了对于数据中心AI市值的预测。
不仅是2023年的基准收入水平将高于预期,从2023年至2027年之间的年均复合增长率(CAGR)也得到大幅上调,来到70%。最终结果就是,到2027年AMD预计加速器销售额将超过4000亿美元。
而随着上周Advancing AI大会上MI325X和MI355X的正式亮相,苏姿丰又做出了另一项预测,只是这次预测的终点从2027年延伸到了2028年:
数据中心AI加速器销售额的450亿美元保持不变,但现在预计终端收入为5000亿美元,年均复合增长率则以2028年(而非之前的2027年)计算。另外,随着预测周期的延长,原本的乐观期待也开始逐渐消退,导致年均复合增长率随之降低。最新版本认为这项增长率将只高于60%,而非70%。换句话说,苏姿丰和她的AMD在下调预期的同时又在周期上额外增加了一年,希望分散人们对于增长数字下滑的注意力。
重要提示:哪怕是给定了两个时间端点和年均复合增长率时,我们也无法真正判断这两端之间的具体数字走势。这有点像个黑匣子,唯一确定的就是开头的数字和末尾的数字。期间可能会出现大幅震荡,但与之对应的处均复合增长率并不会改变。这虽然限制了这项指标的重要性,但已经是我们能够用于预测的最佳工具,帮助我们在两个端点之间进行线性思考,而且任何差异都将在足够长的时间内被平均化分摊。
因此,如果我们假设AMD对于数据中心AI加速器支出的这三条预测在两个时间端点间呈线性增长,那么在均匀补充上中间的空白之后,最终结果将如下表所示:
中间几年的估算值以红色粗斜体标记,这是我们根据年均复合增长率计算得出的每一年销售总额。
根据AMD最新做出的预期调整,我们可以用两种潜在方式填充这份图表。
第一种就是继续保留之前 2023年12月公布的2023年至2027年AI加速器销售额预测,只额外添加2028年的新终点。我们认为AMD想要表达的肯定不是这个意思,因为如果是这样,那就意味着如上表所示,2028年AI加速器支出增长将会大幅放缓。
第二种情况则是对整个预测模型做出修订,这应该也是AMD想要达到的效果(否则也无法解释为什么此次公布了更低的年均复合增长率数字)。如大家所见,2024年至2027年(含)之间有1560亿美元AI加速器销售额被从结果中移除。与2023年12月的此前预测相比,2024年10月最新预测的累计销售额将减少这1560亿美元。
AI加速器成本约占其相关系统总体成本的一半,而网络则在其上再额外增加20%左右的投入。这种估算方法假设要部署大量闪存、主内存容量以及强大的主机CPU来驱动AI工作负载中的串行部分,由此建立起合理的AI服务器。在这个基础上再增加20%左右,就能计算出由AI服务器构建AI集群的网络成本。
那么如果将2023年至2028年AI加速器支出的7370亿美元乘以2,就能得到AI服务器支出约在1.5万亿美元左右,加上网络就是1.8万亿美元。最后加上系统软件,则基本可以认为期间AI系统总投入将达到2万亿美元量级。
如果接下来企业买家真的按照这个路子执行下去,那么除了AI服务器支出之外,其余服务器和存储市场遭遇衰退也就完全在情理之中了。
但现在,这已经是最后才需要考虑的因素了。如果全世界真的将在2023年至2028年这六年间在AI系统身上砸下2万亿美元,那么投资回报方面的压力肯定就相当大了。换句话说,我们希望在抵消经济成本的同时,再至少增加2万亿美元的经济收入。实际上,最好能把收益再提高一整个数量级。希望这种收益不是来自裁员,而是做出以往无法实现的探索。但哪怕是最乐观的猜测,裁员的贡献可能也要在其中占比一半。而且考虑到巨大的投入回报压力,再加上AI系统对于人类员工的替代效果,没准所有收益都是通过裁员方式来实现……至少我们要对此做好心理预期。
但千万不要忘记,如果人丢掉了工作,税收来源也将随之消失,自然谈不上什么全民基本收入。当然,时至今日也没有哪个人类经济实体能够真正贯彻全民基本收入,所以这事不提也罢。更加讽刺的是,那些整天喊着支持全民基本收入的家伙,脑袋里想的永远是不能影响到他们自己的收入。所以从这个角度讲,全民努力工作到老迈不堪才是最可能出现的结局。但无论是哪种情况,我希望这至少出自全人类的自主选择、出自全人类的共同福祉。
好文章,需要你的鼓励
AMD CIO的职能角色早已超越典型的CIO职务,他积极支持内部产品开发,一切交付其他部门的方案都要先经过他的体验和评判。
医学生在选择专业时,应当考虑到AI将如何改变医生的岗位形态(以及获得的薪酬待遇)。再结合专业培训所对应的大量时间投入和跨专业的高门槛,这一点就更显得至关重要。
我们拥有大量数据,有很多事情要做,然后出现了一种有趣的技术——生成式AI,给他们所有人带来的影响。这种影响是巨大的,我们在这个领域正在做着惊人的工作。