微软预览了一种新的数据中心设计,这种设计将大大减少冷却服务器所需的用水量。
微软数据中心基础设施工程副总裁Steve Solomon周一在一篇博客文章中详细介绍了这项技术。
水蒸发时会从周围空气中吸收大量热量。许多数据中心运营商利用这种现象来散发硬件产生的热量。众所周知,蒸发冷却是冷却服务器最省电的方法之一。
服务器集群产生的热量会提高数据中心内的空气温度。蒸发冷却系统使用风扇将热空气吸入装满水的容器中。当容器中的水蒸发后,空气的温度会急剧下降,风扇可以将其抽回数据中心,冷却里面的服务器。
和其他的一些散热方法相比,蒸发冷却的耗电量更少。这种方法的缺点是蒸发的水会流失,因而增加数据中心对环境的影响。微软最新发布的数据中心设计旨在应对这一挑战。
与标准蒸发冷却系统类似,微软的设计使用水来调节数据中心的温度。不同的是,它并不蒸发水,而是用冷却器冷却水,这意味着没有液体损失。这就大大减少了数据中心的耗水量。
Solomon详细介绍说:“虽然卫生间和厨房等管理用途仍需要用水,但这种设计将避免每个数据中心每年超过1.25亿升水的需求。”
在过去几年中,微软已经实现了显著的节水效果,预计此次会在这一基础上进一步减少用水量。2023年,该公司数据中心每消耗1千瓦电能将消耗约0.49升水。这比2021年下降了39%,比微软的第一代数据中心节水80%。
该公司通过几种不同的方法减少了用水量。
今年7月,微软披露其数据中心的大部分设备都在相对较高的温度下运行。这样,它就可以在一年中的大部分时间里用外部空气冷却硬件。此外,微软还为一些数据中心配备了可以使用回收水和雨水的硬件。
微软减少用水量的努力还包括软件部分。今年早些时候,微软详细介绍了其正在开发的 “预测模型”,旨在预测数据中心一天的用水量。如果该设施最终用水量增加,工程师就能迅速确定存在管道漏水等问题,并进行修复。
该公司还致力于通过其他方式提高数据中心的效率。对于配备其定制的Maia 100 芯片的服务器,该公司开发了一种冷却“小跟班”,可在所连接的系统中循环冷却液。由于液体的导热性能比空气好,因此这种方式比使用风扇要有效得多。
目前,冷却液并不直接流经微软的芯片,而是冷却连接在这些芯片上的冷板。该公司打算在未来利用所谓的微流体技术改变这种状况。该公司计划设计具有微小通道的芯片,让冷却液直接流经硅片,从而进一步提高数据中心的效率。
Solomon写道:“尽管我们目前的机组仍将混合使用风冷和水冷系统,但亚利桑那州凤凰城和威斯康星州普莱森特山的新项目将于2026年试用零水蒸发设计。”“这些新项目将于2027年底开始投入使用。”
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
北航团队开发的GeoSVR技术突破了传统3D重建方法的局限,采用稀疏体素表示和体素不确定性评估,无需依赖初始点云即可实现高精度表面重建。该方法通过智能的深度约束和体素协同优化策略,在DTU等标准数据集上取得了最佳性能,为VR/AR、文物保护、影视制作等领域提供了新的技术选择。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
Google DeepMind团队发布了EmbeddingGemma,这是一个仅有3.08亿参数的轻量级文本理解模型,却能达到7亿参数模型的性能水平。该模型在权威的多语言文本嵌入基准测试中排名第一,支持250多种语言,特别适合移动设备部署。研究团队通过创新的编码器-解码器初始化、三重损失函数训练和模型融合技术,实现了性能与效率的完美平衡,为AI技术普及化开辟了新路径。