谷歌今天分享了有关最新一代TPU芯片的早期细节。该芯片用于运行人工智能工作负载,性能是上一代的2倍多。
谷歌的TPU(Tensor Processor Unit)是一种基于AI的、应用特定的集成电路。今天谷歌详细介绍的是第四代TPU的情况,第三代和第二代此前展示出了令人印象深刻的性能水平,谷歌通过 Google Cloud Platform向企业提供这两代芯片。
谷歌称,第四代TPU的平均性能比第三代TPU高出2.7倍。谷歌在最近MLPerf行业竞赛中对比了这两代芯片训练五个主流AI模型的速度。第四代TPU在运行Mask R-CNN模型(用于自动驾驶等用例的图像分割AI)时达到了最高性能,训练速度比上一代芯片快3.7倍。
性能上的大幅提升主要源自于底层的巨大改进。谷歌工程师Naveen Kumar在博客文章中详细介绍称,谷歌已经大幅提高了TPU的内存带宽,也就是芯片从内存中获取数据并进行处理的速度,提高了执行专有计算的性能。
Kumar在帖子中详细介绍说:“谷歌第四代TPU ASIC在运行矩阵乘法(AI模型用来处理数据的一种数学运算方式)的TFLOP性能是TPU v3的2倍多。”与第四代芯片相比,第三代TPU的浮点运算性能为420万亿次。
Kumar称,客户可以很快将会获得有关新一代TPU的更多信息。考虑到目前Google Cloud平台上已经有两个上一代TPU可供租用,所以新一代应用很有可能最终也将落地在Google Cloud在会上。但是,客户可能需要一段时间了,根据ExtremeTech报告称,第四代TPU在MLPerf竞赛期间被列为研究类,也就是说,这款芯片至少在六个月内是无法商用的。
新一代芯片在速度上的提升尤其引人注目,因为它在性能上超过了第三代,在同一项比赛中打破了多个记录。谷歌利用4090个第三代TPU打造了所谓全球最快的AI训练超级计算机。该系统在8个MLPerf基准测试中创下了6项新的记录,并在不到30秒的时间内训练了4个测试模型。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。