谷歌今天分享了有关最新一代TPU芯片的早期细节。该芯片用于运行人工智能工作负载,性能是上一代的2倍多。
谷歌的TPU(Tensor Processor Unit)是一种基于AI的、应用特定的集成电路。今天谷歌详细介绍的是第四代TPU的情况,第三代和第二代此前展示出了令人印象深刻的性能水平,谷歌通过 Google Cloud Platform向企业提供这两代芯片。
谷歌称,第四代TPU的平均性能比第三代TPU高出2.7倍。谷歌在最近MLPerf行业竞赛中对比了这两代芯片训练五个主流AI模型的速度。第四代TPU在运行Mask R-CNN模型(用于自动驾驶等用例的图像分割AI)时达到了最高性能,训练速度比上一代芯片快3.7倍。
性能上的大幅提升主要源自于底层的巨大改进。谷歌工程师Naveen Kumar在博客文章中详细介绍称,谷歌已经大幅提高了TPU的内存带宽,也就是芯片从内存中获取数据并进行处理的速度,提高了执行专有计算的性能。
Kumar在帖子中详细介绍说:“谷歌第四代TPU ASIC在运行矩阵乘法(AI模型用来处理数据的一种数学运算方式)的TFLOP性能是TPU v3的2倍多。”与第四代芯片相比,第三代TPU的浮点运算性能为420万亿次。
Kumar称,客户可以很快将会获得有关新一代TPU的更多信息。考虑到目前Google Cloud平台上已经有两个上一代TPU可供租用,所以新一代应用很有可能最终也将落地在Google Cloud在会上。但是,客户可能需要一段时间了,根据ExtremeTech报告称,第四代TPU在MLPerf竞赛期间被列为研究类,也就是说,这款芯片至少在六个月内是无法商用的。
新一代芯片在速度上的提升尤其引人注目,因为它在性能上超过了第三代,在同一项比赛中打破了多个记录。谷歌利用4090个第三代TPU打造了所谓全球最快的AI训练超级计算机。该系统在8个MLPerf基准测试中创下了6项新的记录,并在不到30秒的时间内训练了4个测试模型。
好文章,需要你的鼓励
Colt科技服务公司推出超低延迟云连接服务Colt ULL DCA,专门面向加密货币交易商和AI应用开发企业的高速需求。该服务结合超低延迟网络和专用云接入平台,绕过公共互联网提供专用高速路径。在AWS亚洲区域测试中,平均延迟比原生路由降低15%。随着亚太地区数字资产交易成熟和AI需求爆发,企业对安全高性能连接需求激增,Colt正加速在东南亚扩张布局。
约翰霍普金斯大学研究团队开发了ETTIN模型套件,首次实现了编码器和解码器模型的公平比较。研究发现编码器擅长理解任务,解码器擅长生成任务,跨界训练效果有限。该研究为AI模型选择提供了科学依据,所有资料已开源供学术界使用。
皮尤研究中心最新分析显示,谷歌搜索结果页面的AI概述功能显著降低了用户对其他网站的点击率。研究发现,没有AI回答的搜索点击率为15%,而有AI概述的搜索点击率降至8%。目前约五分之一的搜索会显示AI概述,问题类搜索中60%会触发AI回答。尽管谷歌声称AI概述不会影响网站流量,但数据表明用户看到AI生成的信息后更容易结束浏览,这可能导致错误信息的传播。
博洛尼亚大学团队开发出情感增强的AI系统,通过结合情感分析和文本分类技术,显著提升了新闻文章中主观性表达的识别准确率。该研究覆盖五种语言,在多项国际评测中取得优异成绩,为打击虚假信息和提升媒体素养提供了新工具。