微软预览了一种新的数据中心设计,这种设计将大大减少冷却服务器所需的用水量。
微软数据中心基础设施工程副总裁Steve Solomon周一在一篇博客文章中详细介绍了这项技术。
水蒸发时会从周围空气中吸收大量热量。许多数据中心运营商利用这种现象来散发硬件产生的热量。众所周知,蒸发冷却是冷却服务器最省电的方法之一。
服务器集群产生的热量会提高数据中心内的空气温度。蒸发冷却系统使用风扇将热空气吸入装满水的容器中。当容器中的水蒸发后,空气的温度会急剧下降,风扇可以将其抽回数据中心,冷却里面的服务器。
和其他的一些散热方法相比,蒸发冷却的耗电量更少。这种方法的缺点是蒸发的水会流失,因而增加数据中心对环境的影响。微软最新发布的数据中心设计旨在应对这一挑战。
与标准蒸发冷却系统类似,微软的设计使用水来调节数据中心的温度。不同的是,它并不蒸发水,而是用冷却器冷却水,这意味着没有液体损失。这就大大减少了数据中心的耗水量。
Solomon详细介绍说:“虽然卫生间和厨房等管理用途仍需要用水,但这种设计将避免每个数据中心每年超过1.25亿升水的需求。”
在过去几年中,微软已经实现了显著的节水效果,预计此次会在这一基础上进一步减少用水量。2023年,该公司数据中心每消耗1千瓦电能将消耗约0.49升水。这比2021年下降了39%,比微软的第一代数据中心节水80%。
该公司通过几种不同的方法减少了用水量。
今年7月,微软披露其数据中心的大部分设备都在相对较高的温度下运行。这样,它就可以在一年中的大部分时间里用外部空气冷却硬件。此外,微软还为一些数据中心配备了可以使用回收水和雨水的硬件。
微软减少用水量的努力还包括软件部分。今年早些时候,微软详细介绍了其正在开发的 “预测模型”,旨在预测数据中心一天的用水量。如果该设施最终用水量增加,工程师就能迅速确定存在管道漏水等问题,并进行修复。
该公司还致力于通过其他方式提高数据中心的效率。对于配备其定制的Maia 100 芯片的服务器,该公司开发了一种冷却“小跟班”,可在所连接的系统中循环冷却液。由于液体的导热性能比空气好,因此这种方式比使用风扇要有效得多。
目前,冷却液并不直接流经微软的芯片,而是冷却连接在这些芯片上的冷板。该公司打算在未来利用所谓的微流体技术改变这种状况。该公司计划设计具有微小通道的芯片,让冷却液直接流经硅片,从而进一步提高数据中心的效率。
Solomon写道:“尽管我们目前的机组仍将混合使用风冷和水冷系统,但亚利桑那州凤凰城和威斯康星州普莱森特山的新项目将于2026年试用零水蒸发设计。”“这些新项目将于2027年底开始投入使用。”
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。