微软预览了一种新的数据中心设计,这种设计将大大减少冷却服务器所需的用水量。
微软数据中心基础设施工程副总裁Steve Solomon周一在一篇博客文章中详细介绍了这项技术。
水蒸发时会从周围空气中吸收大量热量。许多数据中心运营商利用这种现象来散发硬件产生的热量。众所周知,蒸发冷却是冷却服务器最省电的方法之一。
服务器集群产生的热量会提高数据中心内的空气温度。蒸发冷却系统使用风扇将热空气吸入装满水的容器中。当容器中的水蒸发后,空气的温度会急剧下降,风扇可以将其抽回数据中心,冷却里面的服务器。
和其他的一些散热方法相比,蒸发冷却的耗电量更少。这种方法的缺点是蒸发的水会流失,因而增加数据中心对环境的影响。微软最新发布的数据中心设计旨在应对这一挑战。
与标准蒸发冷却系统类似,微软的设计使用水来调节数据中心的温度。不同的是,它并不蒸发水,而是用冷却器冷却水,这意味着没有液体损失。这就大大减少了数据中心的耗水量。
Solomon详细介绍说:“虽然卫生间和厨房等管理用途仍需要用水,但这种设计将避免每个数据中心每年超过1.25亿升水的需求。”
在过去几年中,微软已经实现了显著的节水效果,预计此次会在这一基础上进一步减少用水量。2023年,该公司数据中心每消耗1千瓦电能将消耗约0.49升水。这比2021年下降了39%,比微软的第一代数据中心节水80%。
该公司通过几种不同的方法减少了用水量。
今年7月,微软披露其数据中心的大部分设备都在相对较高的温度下运行。这样,它就可以在一年中的大部分时间里用外部空气冷却硬件。此外,微软还为一些数据中心配备了可以使用回收水和雨水的硬件。
微软减少用水量的努力还包括软件部分。今年早些时候,微软详细介绍了其正在开发的 “预测模型”,旨在预测数据中心一天的用水量。如果该设施最终用水量增加,工程师就能迅速确定存在管道漏水等问题,并进行修复。
该公司还致力于通过其他方式提高数据中心的效率。对于配备其定制的Maia 100 芯片的服务器,该公司开发了一种冷却“小跟班”,可在所连接的系统中循环冷却液。由于液体的导热性能比空气好,因此这种方式比使用风扇要有效得多。
目前,冷却液并不直接流经微软的芯片,而是冷却连接在这些芯片上的冷板。该公司打算在未来利用所谓的微流体技术改变这种状况。该公司计划设计具有微小通道的芯片,让冷却液直接流经硅片,从而进一步提高数据中心的效率。
Solomon写道:“尽管我们目前的机组仍将混合使用风冷和水冷系统,但亚利桑那州凤凰城和威斯康星州普莱森特山的新项目将于2026年试用零水蒸发设计。”“这些新项目将于2027年底开始投入使用。”
好文章,需要你的鼓励
K Prize是由Databricks和Perplexity联合创始人推出的AI编程挑战赛,首轮比赛结果显示,获胜者巴西工程师Eduardo Rocha de Andrade仅答对7.5%的题目就获得5万美元奖金。该测试基于GitHub真实问题,采用定时提交系统防止针对性训练,与SWE-Bench 75%的最高得分形成鲜明对比。创始人承诺向首个在该测试中得分超过90%的开源模型提供100万美元奖励。
T-Tech公司研究团队开发了SAE Boost助推器系统,通过训练专门的"错误补偿器"来增强AI理解工具对专业领域的理解能力。该系统在化学、俄语和外交等领域测试中显示出显著改进效果,同时完全保持原有通用能力。这种模块化设计为AI系统的持续优化提供了安全可靠的路径,对AI可解释性研究具有重要意义。
阿里巴巴通义千问团队发布开源编程模型Qwen3-Coder-480B-A35B-Instruct,专门用于软件开发辅助。该模型采用混合专家架构,拥有4800亿参数,支持25.6万token上下文长度,可在数秒内创建完整功能应用。在SWE-bench基准测试中得分67.0%,表现优于GPT-4和Gemini。模型基于Apache 2.0开源许可,企业可免费使用。AI研究者称其可能是目前最佳编程模型,特别适合企业级代码库理解、自动化代码审查和CI/CD系统集成。
斯坦福大学研究团队开发出革命性AI系统,能够像生物学家一样"看懂"蛋白质三维结构并预测功能。该系统通过多层次分析方法,在蛋白质功能预测方面达到90%以上准确率,为新药开发和精准医疗开辟新道路。这项技术不仅加速了蛋白质研究进程,更为解决复杂疾病提供了强大的AI助手,预示着人工智能与生物医学融合的美好前景。