谷歌今天分享了有关最新一代TPU芯片的早期细节。该芯片用于运行人工智能工作负载,性能是上一代的2倍多。
谷歌的TPU(Tensor Processor Unit)是一种基于AI的、应用特定的集成电路。今天谷歌详细介绍的是第四代TPU的情况,第三代和第二代此前展示出了令人印象深刻的性能水平,谷歌通过 Google Cloud Platform向企业提供这两代芯片。
谷歌称,第四代TPU的平均性能比第三代TPU高出2.7倍。谷歌在最近MLPerf行业竞赛中对比了这两代芯片训练五个主流AI模型的速度。第四代TPU在运行Mask R-CNN模型(用于自动驾驶等用例的图像分割AI)时达到了最高性能,训练速度比上一代芯片快3.7倍。
性能上的大幅提升主要源自于底层的巨大改进。谷歌工程师Naveen Kumar在博客文章中详细介绍称,谷歌已经大幅提高了TPU的内存带宽,也就是芯片从内存中获取数据并进行处理的速度,提高了执行专有计算的性能。
Kumar在帖子中详细介绍说:“谷歌第四代TPU ASIC在运行矩阵乘法(AI模型用来处理数据的一种数学运算方式)的TFLOP性能是TPU v3的2倍多。”与第四代芯片相比,第三代TPU的浮点运算性能为420万亿次。
Kumar称,客户可以很快将会获得有关新一代TPU的更多信息。考虑到目前Google Cloud平台上已经有两个上一代TPU可供租用,所以新一代应用很有可能最终也将落地在Google Cloud在会上。但是,客户可能需要一段时间了,根据ExtremeTech报告称,第四代TPU在MLPerf竞赛期间被列为研究类,也就是说,这款芯片至少在六个月内是无法商用的。
新一代芯片在速度上的提升尤其引人注目,因为它在性能上超过了第三代,在同一项比赛中打破了多个记录。谷歌利用4090个第三代TPU打造了所谓全球最快的AI训练超级计算机。该系统在8个MLPerf基准测试中创下了6项新的记录,并在不到30秒的时间内训练了4个测试模型。
好文章,需要你的鼓励
甲骨文云基础设施与xAI达成合作,OCI将为企业客户托管xAI的Grok模型。此次合作使Grok 3等模型可供以数据为中心的客户群进行训练和推理,支持Nvidia和AMD加速器。OCI采用独特的AI策略,专注于企业数据需求,保持模型和工具的不可知论立场,让生态系统合作伙伴专注于提供工具,而OCI确保体验的无摩擦、高性能和安全性。
华为诺亚实验室联合多家顶尖院校推出开源机器人编程框架Ark,通过Python优先设计和模块化架构,实现仿真与现实环境的无缝切换。该框架大幅降低机器人编程门槛,支持现代AI技术集成,为机器人学习研究提供统一平台,有望加速机器人技术普及。
量子计算何时能商用化仍是行业关注焦点。专家指出,除了逻辑量子比特和错误纠正技术,量子计算系统还面临诸多挑战:激光器缺乏相干性、稀释制冷机难以适应数据中心环境、系统可扩展性不足等硬件问题。此外,量子计算机需要达到99.999%的运行时间要求,编程易用性和与传统高性能计算的混合架构复杂性也有待解决。
网易有道研究团队开发了Confucius3-Math,这是一个专门针对中国K-12数学教育的14B参数AI模型。该模型在多项数学推理测试中表现出色,超越了许多规模更大的竞争对手,训练成本仅需2.6万美元,推理速度比DeepSeek-R1快15倍,能在消费级GPU上高效运行,旨在通过降低AI教育成本来促进教育公平。