谷歌今天公布了对自定义计算的愿景,透露将采用“片上系统”(SoC)基础设施来取代传统主板作为关键集成点。
到目前为止,谷歌一直依靠“古老”的主板来集成自己的计算基础设施各个组件,包括其CPU、网络、存储设备、定制加速卡和内存。但是,当计算达到拐点时,就需要一种新的方法,谷歌系统基础设施副总裁Amit Vahdat在博客中这样表示。
Vahdat说:“与其将组件集成在用几英寸电线隔开的主板上,我们不如采用SoC设计,将多项功能集成到同一个芯片上,或者在一个封装内的多个芯片上。换句话说,SoC就是一种新型主板。”
Vahdat说,SoC有助于确保工作负载与底层硬件之间更深入的集成。他解释说,因为SoC上不同组件之间的延迟和带宽可以提高几个数量级,而与主板上组合单个ASIC相比,SoC的好处有降低功耗和降低成本等。
Vahdat说:“就像在主板上一样,各个功能单元(例如CPU、TPU、视频转码、加密、压缩、远程通信、安全数据汇总等)也来自不同的来源。我们可以按需购买,按需配置,构建让整个行业受益的生态系统。”
他透露,为了推动未来的SoC设计计划,谷歌已经聘请了前英特尔芯片设计师Uri Frank担任新的工程副总裁。Frank拥有超过25年的芯片设计经验,将领导位于以色列的一个新部门,负责设计谷歌的下一代计算基础设施。
Frank说:“谷歌已经设计并构建了一些全球最大、最高效的计算系统。长期以来,定制芯片一直是该策略的一个重要组成部分。”
Google在自研云计算基础设施芯片方面拥有悠久的历史。Vahdat举例说,2016年谷歌公布了第一批TPU,一种用于运行实时语音搜索、照片对象识别和交互式语言翻译等工作负载的专用CPU。他解释说,在运行这些任务方面,TPU的效率比英特尔和AMD的通用芯片高效得多,如果没有TPU,谷歌也就无法很好地提供这些服务。”
除了芯片,谷歌还开发了很多定制硬件,包括固态盘、硬盘驱动器、网络交换机和网络接口卡等。
Vahdat说,未来谷歌的SoC将使其能够设计更多专门针对单个应用的定制硬件,不过他坦言,要足够快速地开发以跟上当前所有不同云服务发展的步伐,还是相当挑战的。
“我们将与全球合作伙伴生态系统一起,继续在计算基础设施的领先优势上进行创新,提供目前其他厂商无法提供的下一代功能,并为下一波人类尚未设想的应用和服务创造沃土。”
好文章,需要你的鼓励
美光推出新款 Crucial P510 PCIe Gen5 SSD,采用 276 层 3D NAND 闪存和群联 PS5031-E31T 控制器。该产品针对游戏和创意工作负载优化,提供高达 11,000/9,500 MBps 的读写速度,同时通过无 DRAM 设计降低成本。美光与群联的合作旨在满足当今技术用户对高性能和高效率存储的需求。
随着检索增强生成 (RAG) 技术的兴起,企业有望更好地利用大语言模型 (LLM) 和公司内部数据。RAG 技术能够将 LLM 与企业特定领域知识相结合,提升 AI 服务质量。未来,RAGOps 和智能代理等新方法将有助于 RAG 技术的大规模应用,为企业 AI 落地提供更多可能性。
HYCU 扩展了其 R-Cloud 服务,提升了数据在本地和公有云间的移动能力。升级后,客户可以更灵活地将数据放置在合适的混合或公有云环境中,优化成本。新版本支持更多基础设施,简化了备份、灾难恢复和迁移流程,实现一键式操作,帮助客户在不同平台间自由选择,避免被特定基础设施锁定。
微软计划在2025年淘汰和终止多项企业级Microsoft 365服务,不仅限于Windows 10支持的终止。这将对企业管理员带来巨大挑战,涉及Exchange Online、SharePoint、Teams等多个核心服务,需要企业提前做好准备和迁移工作。