“不可思议”的GPU集群赋能Autopilot系统及全自动驾驶的AI开发工作

为了应对这项有史以来最大的计算挑战之一,特斯拉需要配备前所未有的算力。
在本周的CVPR(国际计算机视觉与模式识别会议)上,汽车制造商特斯拉的AI高级总监Andrej Karpathy公布了公司内部用于训练Autopilot与自动驾驶深度神经网络的超级计算机。这个集群使用了720个节点的8个NVIDIA A100 Tensor Core GPU(共5760个GPU),实现了1.8 exaflops级别的超强性能。
Karpathy表示:“这是一台性能卓越的超级计算机,以FLOPS计,它大概可以在全球超级计算机中排到第5位”。
通过将汽车行业前所未有的算力水平作为其研发周期的核心,特斯拉让其自动驾驶汽车工程师能够使用前沿技术来高效完成这项工作。
NVIDIA A100 GPUs 为全球最强的数据中心提供各种尺度的加速。A100 GPU基于NVIDIA Ampere架构打造,其性能比上一代产品高出20倍,并且可以划分成7个GPU实例,动态地适配不同的需求。

使用100多万辆在路上跑的车(的数据)来持续优化和迭代新功能,正是Tesla自动驾驶的垂直整合之道,而GPU集群也是其中一部分。
从汽车到数据中心
特斯拉的循环开发流程始于汽车。“影子模式”在不实际控制车辆的情况下,悄无声息地执行着感知和预测深度神经网络(DNN)。
任何的错误预测、误识别都会被记录下来。随后,这些实例都会被特斯拉工程师所用,来创建一个包含多种复杂场景的训练数据集,以完善DNN。
当前已经收集了 100万个以每秒36帧的速度记录的10秒片段,总数据量高达1.5PB。在数据中心,特斯拉将DNN置于这些场景中反复运行,直到DNN能够无差错地运行。最后,DNN被发送回车内,并开始下一轮循环。
Karpathy表示,以这种方式在如此大量的数据上训练DNN需要庞大的计算能力,特斯拉为此建立并部署了内置高性能A100 GPU的最新一代超级计算机。

连续迭代
除了全方位的训练之外,特斯拉的超级计算机还为自动驾驶汽车工程师提供了在开发过程中进行实验和迭代所需的性能。
Karpathy表示,特斯拉目前部署的DNN结构可以让一个由20名工程师组成的团队同时在一个网络上工作,通过隔离不同功能来实现并行开发。
这些DNN运行训练数据集的速度会比之前快速迭代时还更快。
Karpathy表示:“计算机视觉是我们一切工作的基础,并且也是实现Autopilot的关键。为此,我们必须训练一个庞大的神经网络并进行大量实验。这也是我们在算力方面投入大量资金的原因。”
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。