谷歌今天公布了对自定义计算的愿景,透露将采用“片上系统”(SoC)基础设施来取代传统主板作为关键集成点。
到目前为止,谷歌一直依靠“古老”的主板来集成自己的计算基础设施各个组件,包括其CPU、网络、存储设备、定制加速卡和内存。但是,当计算达到拐点时,就需要一种新的方法,谷歌系统基础设施副总裁Amit Vahdat在博客中这样表示。
Vahdat说:“与其将组件集成在用几英寸电线隔开的主板上,我们不如采用SoC设计,将多项功能集成到同一个芯片上,或者在一个封装内的多个芯片上。换句话说,SoC就是一种新型主板。”
Vahdat说,SoC有助于确保工作负载与底层硬件之间更深入的集成。他解释说,因为SoC上不同组件之间的延迟和带宽可以提高几个数量级,而与主板上组合单个ASIC相比,SoC的好处有降低功耗和降低成本等。
Vahdat说:“就像在主板上一样,各个功能单元(例如CPU、TPU、视频转码、加密、压缩、远程通信、安全数据汇总等)也来自不同的来源。我们可以按需购买,按需配置,构建让整个行业受益的生态系统。”
他透露,为了推动未来的SoC设计计划,谷歌已经聘请了前英特尔芯片设计师Uri Frank担任新的工程副总裁。Frank拥有超过25年的芯片设计经验,将领导位于以色列的一个新部门,负责设计谷歌的下一代计算基础设施。
Frank说:“谷歌已经设计并构建了一些全球最大、最高效的计算系统。长期以来,定制芯片一直是该策略的一个重要组成部分。”
Google在自研云计算基础设施芯片方面拥有悠久的历史。Vahdat举例说,2016年谷歌公布了第一批TPU,一种用于运行实时语音搜索、照片对象识别和交互式语言翻译等工作负载的专用CPU。他解释说,在运行这些任务方面,TPU的效率比英特尔和AMD的通用芯片高效得多,如果没有TPU,谷歌也就无法很好地提供这些服务。”
除了芯片,谷歌还开发了很多定制硬件,包括固态盘、硬盘驱动器、网络交换机和网络接口卡等。
Vahdat说,未来谷歌的SoC将使其能够设计更多专门针对单个应用的定制硬件,不过他坦言,要足够快速地开发以跟上当前所有不同云服务发展的步伐,还是相当挑战的。
“我们将与全球合作伙伴生态系统一起,继续在计算基础设施的领先优势上进行创新,提供目前其他厂商无法提供的下一代功能,并为下一波人类尚未设想的应用和服务创造沃土。”
好文章,需要你的鼓励
从4万亿芯片帝国到AI革命,黄仁勋揭秘英伟达30年创新密码:'你必须相信你所相信的'。当计算成本10年下降10万倍,人类将面临怎样的未来?这场斯坦福对话给出了颠覆性答案。
香港中文大学团队首次将DeepSeek-R1推理范式应用到视频理解,开发出Video-R1系统。该系统通过创新的T-GRPO训练方法,让AI学会利用视频时序信息进行深度推理,而非简单识别画面。在多项测试中表现优异,甚至在空间推理任务上超越GPT-4o,为AI视频理解开辟新道路。
谷歌DeepMind发布AlphaEarth Foundations AI模型,能处理每日数TB卫星数据追踪地表变化。该模型如"虚拟卫星"般将全球陆地和沿海水域映射为数字表示,帮助科学家监测食品安全、森林砍伐、城市扩张等关键问题。模型整合光学卫星图像、雷达、激光测绘等数据源,以10×10米精度追踪变化,错误率比其他模型低24%。
上海AI实验室发布视觉强化微调技术,让计算机学会"边看边思考"。该方法通过强化学习训练视觉模型先进行推理再给出答案,在少样本学习中表现优异,单样本图像分类准确率提升24.3%,物体检测精度提升超20分,在开放词汇检测等任务上也实现显著突破。