谷歌今天公布了对自定义计算的愿景,透露将采用“片上系统”(SoC)基础设施来取代传统主板作为关键集成点。

到目前为止,谷歌一直依靠“古老”的主板来集成自己的计算基础设施各个组件,包括其CPU、网络、存储设备、定制加速卡和内存。但是,当计算达到拐点时,就需要一种新的方法,谷歌系统基础设施副总裁Amit Vahdat在博客中这样表示。
Vahdat说:“与其将组件集成在用几英寸电线隔开的主板上,我们不如采用SoC设计,将多项功能集成到同一个芯片上,或者在一个封装内的多个芯片上。换句话说,SoC就是一种新型主板。”
Vahdat说,SoC有助于确保工作负载与底层硬件之间更深入的集成。他解释说,因为SoC上不同组件之间的延迟和带宽可以提高几个数量级,而与主板上组合单个ASIC相比,SoC的好处有降低功耗和降低成本等。
Vahdat说:“就像在主板上一样,各个功能单元(例如CPU、TPU、视频转码、加密、压缩、远程通信、安全数据汇总等)也来自不同的来源。我们可以按需购买,按需配置,构建让整个行业受益的生态系统。”
他透露,为了推动未来的SoC设计计划,谷歌已经聘请了前英特尔芯片设计师Uri Frank担任新的工程副总裁。Frank拥有超过25年的芯片设计经验,将领导位于以色列的一个新部门,负责设计谷歌的下一代计算基础设施。
Frank说:“谷歌已经设计并构建了一些全球最大、最高效的计算系统。长期以来,定制芯片一直是该策略的一个重要组成部分。”
Google在自研云计算基础设施芯片方面拥有悠久的历史。Vahdat举例说,2016年谷歌公布了第一批TPU,一种用于运行实时语音搜索、照片对象识别和交互式语言翻译等工作负载的专用CPU。他解释说,在运行这些任务方面,TPU的效率比英特尔和AMD的通用芯片高效得多,如果没有TPU,谷歌也就无法很好地提供这些服务。”
除了芯片,谷歌还开发了很多定制硬件,包括固态盘、硬盘驱动器、网络交换机和网络接口卡等。
Vahdat说,未来谷歌的SoC将使其能够设计更多专门针对单个应用的定制硬件,不过他坦言,要足够快速地开发以跟上当前所有不同云服务发展的步伐,还是相当挑战的。
“我们将与全球合作伙伴生态系统一起,继续在计算基础设施的领先优势上进行创新,提供目前其他厂商无法提供的下一代功能,并为下一波人类尚未设想的应用和服务创造沃土。”
好文章,需要你的鼓励
香港科技大学团队发表重要研究,开发GIR-Bench测试基准评估统一多模态AI模型的推理与生成能力。研究发现即使最先进的AI模型在理解与生成之间也存在显著差距,无法有效将推理过程转化为准确的视觉生成,为AI行业发展提供重要警示。
Meta超级智能实验室联合麻省理工学院开发了SPG三明治策略梯度方法,专门解决扩散语言模型强化学习训练中的技术难题。该方法通过上下界策略为AI模型提供精确的奖惩反馈机制,在数学和逻辑推理任务上实现了显著性能提升,为AI写作助手的智能化发展提供了新的技术路径。