2013年,Google意识到自己越来越依赖于机器学习,这迫使它不得不扩建数据中心使其数量翻一番,以应对预期的工作负载。
根据Google提供的数据中心运营(包括15个主要数据中心站点)的信息,Google正在考虑增加150亿美元的额外支出,如果Google的一个大型数据中心成本大约是10亿美元。
Google成立了一个团队开发定制的芯片,来处理部分神经网络工作流也就是推理工作,其中软件通过耗费时间和计算密集型的训练阶段产生的数据来进行预测。处理器在PCIe总线上,接受来自主机CPU的命令,这类似于以前的离散FPU或者数学协同处理器,但显然改善达到了今天的标准。
目标是将GPU(Graphic Processing Unit,图形处理器)的性价比提高10倍。据Google自己的估计,这已经成功了,虽然芯片被超越以来一直与内部开发的硬件处于竞争中。
在硅谷计算机历史博物馆举行的National Academy of Engineering会议上,技术演示文稿中提及了一篇文章,称Google的工程师们公布了Google的Tensor Processing Unit(TPU)——一个专门处理TensorFlow机器学习任务的定制ASIC——是如何在数据中心中运作的。
Google在Google I/O 2016大会上推出了他们的TPU。知名硬件工程师、MIPS CPU顶级架构师Norm Jouppi在一篇博客文章中表示,Google从2015年开始就在自己的数据中心内运行TPU,这种专有的芯片“为机器学习提供的每瓦性能有指数级的增长。”
Jouppi甚至表示,这种改进领先了7年时间,大约是摩尔定律下更新3代。
Google高管此前宣称,人工智能——包括机器学习和相关技术——对于Google的未来至关重要。针对人工智能进行的硬件定制强调了这个说法。
现在,Google与英特尔Hashwell CPU以及Nvidia Tesla K80 GPU的性能测试似乎验证了它的做法。
Jouppi在本周发表的一篇博客文章称,基于神经网络推理涉及的工作负载,“TPU要比当前GPU和GPU快15-30倍”,而且实现“30-80倍改善”是以每瓦TOPS计算的。
斯坦福视觉实验室的博士生Justin Johnson在一篇博客文章中指出,Google的研究院人员将其与Tesla K80 GPU进行了对比,后者已经推出了两袋,缺乏对TPU中计算的硬件支持。
“对比结果看起来并不是特别突出,仅次于现有的Tesla P40 GPU,据称P40提供了47 INT8 TOP/s at 250W TDP;与P40相比,TPU快1.9倍,能效提高6.5倍。”
尽管如此,Google的结果表明,“成本能源表现的重大改进来自于特定的硬件”,换句话说,半导体制造商可能更倾向于将他们设计的硬件与预期应用进行匹配。
Johnson解释说,TPU是设计旨在加速神经网络推理阶段的专用硬件,一部分是通过将32位浮点计算量化为较低精度的8位计算。
“这使其相比通用GPU实现更高的速度和能效。能源效率在大规模数据中心场景下尤为重要,改善能源效率可以显著降低大规模运营的成本。”
Johnson表示,他不太确定TPU是否具有广泛意义。“因为它不是专门用于训练的,我认为研究人员可能会在不久的将来坚持使用Nvidia。涉及你自己的定制硬件是一项庞大的工程设计,可能超出了大多数公司的能力,所以我不期望在不久的将来每家公司都拥有自己定制的TPU芯片。”
尽管如此,他推测TPU将有助于Google Cloud Platform减少来自AWS的竞争,至少在客户在生产中训练神经网络方面。
好文章,需要你的鼓励
五家光学存储初创公司正在开发长期存储技术,旨在用超过100年寿命的光学介质替代只有5-7年寿命的磁带。这些公司包括Cerabyte、Ewigbyte、HoloMem、Optera和SPhotonix,它们的技术类似微软Project Silica项目。光学存储介质具有更强的化学、冲击、辐射、水和热抗性,同时保持低能耗和高容量特性。
北京大学团队开发的DragMesh系统通过简单拖拽操作实现3D物体的物理真实交互。该系统采用分工合作架构,结合语义理解、几何预测和动画生成三个模块,在保证运动精度的同时将计算开销降至现有方法的五分之一。系统支持实时交互,无需重新训练即可处理新物体,为虚拟现实和游戏开发提供了高效解决方案。
Nutanix发布分布式主权云产品组合更新,为多云环境提供更安全的运营和管理功能。该解决方案支持企业在分布式环境中灵活部署和治理基础设施,运行传统虚拟机、现代云原生和AI应用。新功能包括支持完全断网环境的暗站点管理、政府云集群正式发布、Kubernetes平台增强安全合规性、企业AI平台集成NVIDIA微服务,以及云平台新增跨站点灾难恢复能力,为用户提供统一管理和运营简化体验。
达尔豪斯大学研究团队系统性批判了当前AI多智能体模拟的静态框架局限,提出以"动态场景演化、智能体-环境共同演化、生成式智能体架构"为核心的开放式模拟范式。该研究突破传统任务导向模式,强调AI智能体应具备自主探索、社会学习和环境重塑能力,为政策制定、教育创新和社会治理提供前所未有的模拟工具。