谷歌今天公布了对自定义计算的愿景,透露将采用“片上系统”(SoC)基础设施来取代传统主板作为关键集成点。

到目前为止,谷歌一直依靠“古老”的主板来集成自己的计算基础设施各个组件,包括其CPU、网络、存储设备、定制加速卡和内存。但是,当计算达到拐点时,就需要一种新的方法,谷歌系统基础设施副总裁Amit Vahdat在博客中这样表示。
Vahdat说:“与其将组件集成在用几英寸电线隔开的主板上,我们不如采用SoC设计,将多项功能集成到同一个芯片上,或者在一个封装内的多个芯片上。换句话说,SoC就是一种新型主板。”
Vahdat说,SoC有助于确保工作负载与底层硬件之间更深入的集成。他解释说,因为SoC上不同组件之间的延迟和带宽可以提高几个数量级,而与主板上组合单个ASIC相比,SoC的好处有降低功耗和降低成本等。
Vahdat说:“就像在主板上一样,各个功能单元(例如CPU、TPU、视频转码、加密、压缩、远程通信、安全数据汇总等)也来自不同的来源。我们可以按需购买,按需配置,构建让整个行业受益的生态系统。”
他透露,为了推动未来的SoC设计计划,谷歌已经聘请了前英特尔芯片设计师Uri Frank担任新的工程副总裁。Frank拥有超过25年的芯片设计经验,将领导位于以色列的一个新部门,负责设计谷歌的下一代计算基础设施。
Frank说:“谷歌已经设计并构建了一些全球最大、最高效的计算系统。长期以来,定制芯片一直是该策略的一个重要组成部分。”
Google在自研云计算基础设施芯片方面拥有悠久的历史。Vahdat举例说,2016年谷歌公布了第一批TPU,一种用于运行实时语音搜索、照片对象识别和交互式语言翻译等工作负载的专用CPU。他解释说,在运行这些任务方面,TPU的效率比英特尔和AMD的通用芯片高效得多,如果没有TPU,谷歌也就无法很好地提供这些服务。”
除了芯片,谷歌还开发了很多定制硬件,包括固态盘、硬盘驱动器、网络交换机和网络接口卡等。
Vahdat说,未来谷歌的SoC将使其能够设计更多专门针对单个应用的定制硬件,不过他坦言,要足够快速地开发以跟上当前所有不同云服务发展的步伐,还是相当挑战的。
“我们将与全球合作伙伴生态系统一起,继续在计算基础设施的领先优势上进行创新,提供目前其他厂商无法提供的下一代功能,并为下一波人类尚未设想的应用和服务创造沃土。”
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。