整个世界正为生成式AI而疯狂,且疯狂程度仍在与日俱增。到2027年,全球GPU硬件总支出将达到4000亿美元。
如果大家觉得这个数字也不是很夸张,那我们不妨拿美国国防部做个对比。作为地球上烧钱能力最强的机构,国防部截至明年7月的2024政府财政年度总预算也就是8420亿美元。
还有更多相关观点。Gartner IT市场分析师们预计到2024年,包括硬件、软件、IT服务和电信服务在内的全球IT总支出将达到5.13万亿美元,同比增长8.8%。其中,预计只有2355亿美元用于数据中心系统,涵盖世界各地销售的全部服务器、存储和交换机设备。这部分数字增幅为8.1%,而我们认为这很大程度上要归功于生成式AI相关集群的快速落地。甚至如果不算这部分新增需求,传统数据中心内的通用基础设施支出反而出现了严重下滑。
今年10月,我们根据IDC的服务器收支预测整理出电子表格,想要弄清到底有多少钱被花在了AI集群身上。从结果来看,IDC发现2022年AI系统的总销售额还在区区100亿美元以内,但在短短两年之后的2023年,这一数字就会迅速飙升至500亿美元,到2027年稳定增长至1000亿美元,直接在服务器总收入中占据半壁江山。坦率地讲,这样的势头绝对堪称疯狂。
而如果AMD公司CEO苏姿丰在本周于圣何塞召开的Advancing AI大会上做出的预测属实,那么AI增长模型似乎还要调整得更激进一些。苏姿丰提到,数据中心GPU市场已经迈过发展临界点,而巨大的宏观经济压力则会为其再添一股增压势能。(顺带一提,生成式AI的广泛普及也让可控核聚变在内的清洁能源成为关注焦点,这不仅有助于通过多种方式恢复地球环境、扭转人类过往发展造成的损害,同时也将开辟出新的商业空间。)
一年之前,苏姿丰团队在首次谈及MI300系列GPU的设计愿景时,就已经认真总结过市场研究和业务渠道,并认为数据中心GPU在2023年的总潜在市场大约是300亿美元左右,而接下来直到2027年将保持50%左右的年均复合增长率,届时发展至1500亿美元以上。
苏姿丰当时在主题演讲中坦言,“这看上去是个很大的数字。”考虑到当时IDC和Gartner等咨询公司发布的全球数据中心硬件支出预测,大多数人的确很难相信这个看似过度乐观的结论。
“但纵观过去十二个月间发生的一切,以及我们在各个行业、各家客户以及全球各地观察到的技术采用率和部署节奏,就会意识到需求的增长速度的确极快。因此从建立AI基础设施的角度来看——当然,目前一切先从云端起始,但随后将逐步渗透进企业——我们相信,我们将在整个嵌入式市场和个人计算领域看到大量AI要素。我们预计数据中心加速器TAM将在未来四年内以每年70%以上的速度增长,到2027年将超过4000亿美元。哪怕是对我们这些在行业内见惯了大起大落的从业者来说,这样的创新步伐也超过了我们以往的任何经历。”
而且,这里所说的还只是数据中心AI加速器业务中的TAM部分,尚未涵盖边缘/客户端AI硬件加速器TAM。AMD并没有讨论TAM对于整体芯片市场意味着什么。但就在IDC于几个月前预计2027年全球服务器业务将接近2000亿美元时,外界还普遍对这个巨大的数字表示难以置信。
但如果逆向计算,并选择一个比较可靠的比率(即AI服务器的GPU成本约为设备总价的53%,就是说基于八路英伟达HGX GPU计算复合体的设备总价为37.5万美元,其中GPU部分的成本约为20万美元),而且假设IDC对于服务器市场以及AI/非AI服务器之间的此消彼长趋势预测正确,那么到2027年,AI加速器硬件所对应的GPU销售总额大约会在500亿美元左右。这明显跟AMD的结论对不上,除非AMD所说的“数据中心AI加速器”有着更加广泛的定义范围,比如说不仅包含GPU和NNP,甚至连CPU的部分也被计算了进来。
无论如何,AMD表示增长速度的确高于预期,加速器的收入表现也比我们几个月前的预测高出了9倍。
但如此疯狂的市场终归不能持久。假设GPU和其他加速器的价格伴随HBM内存成本的降低而同步下调,那么按照苏姿丰团队给出的总销售额计算,对应的硬件出货量将极为巨大。而在这波商业浪潮之下,相信将会有更多厂商占据住自己的一片竞争与利润空间。
好文章,需要你的鼓励
中国生数科技旗下AI产品Vidu发布新版本更新,推出"参考图像生成"功能,用户可上传最多7张参考图片,通过AI模型的语义理解技术将多张图像合成为高度一致的新图像。该功能支持快速编辑照片、替换物体、调整光照等操作,为摄影师、营销人员提供便捷的AI图像编辑工具,在保持视觉一致性方面与谷歌等竞品形成竞争。
CORA是微软研究院与谷歌研究团队联合开发的突破性AI视觉模型,发表于2023年CVPR会议。它通过创新的"区域提示"和"锚点预匹配"技术,成功解决了计算机视觉领域的一大挑战——开放词汇目标检测。CORA能够识别训练数据中从未出现过的物体类别,就像人类能够举一反三一样。在LVIS数据集测试中,CORA的性能比现有最佳方法提高了4.6个百分点,尤其在稀有类别识别上表现突出。这一技术有望广泛应用于自动驾驶、零售、安防和辅助技术等多个领域。
芯片初创公司SiFive推出四款专为运行人工智能模型优化的CPU核心。这些基于开源RISC-V架构的新核心增加了矢量扩展功能,能够更高效地并行处理多个数据点,显著加速AI模型运算。其中X160和X180是主打产品,具备加速卷积运算的矢量处理功能,可用于工业设备、消费电子和数据中心。公司预计客户将于2026年第二季度开始基于新核心设计生产芯片。
中国电信研究院联合重庆大学、北航发布T2R-bench基准,首次系统评估AI从工业表格生成专业报告的能力。研究涵盖457个真实工业表格,测试25个主流AI模型,发现最强模型得分仅62.71%,远低于人类专家96.52%。揭示AI在处理复杂结构表格、超大规模数据时存在数字计算错误、信息遗漏等关键缺陷,为AI数据分析技术改进指明方向。