能够仅仅使用清洁能源就可以为数据中心供电,这听起来像是一个梦——遗憾的是,在大多数情况下都是如此。尽管现在有很多数据中心的大部分能源都是来自太阳能、风能和其他低碳可再生能源的,但大多数数据中心都无法仅依靠可再生能源运营。
这并不意味着把寻求清洁能源作为数据中心可持续发展战略的一部分是不值得的,当然值得,但认识到可持续能源在数据中心市场的局限性也很重要。
用于数据中心的清洁能源:什么是有效的,什么是无效的
目前,可实际用于为大规模数据中心提供动力的清洁能源主要有三种:风能、太阳能和地热能。所有这三种能源都已经被部署用于为数据中心基础设施提供能量以及/或者帮助冷却数据中心设备(特别是在地热能源系统,可以通过将热量移动到地球深处来散热)。
数据中心也有其他清洁能源采购选项,但在大多数情况下都不是务实的选择。例如,依靠燃烧或以其他方式消耗有机材料产生能源的生物质动力数据中心,这个想法可以追溯到十多年前。但除了一些特殊情况(例如位于丹麦的苹果公司数据中心),生物质尚未成为清洁数据中心能源的常见来源,这可能是因为所需的有机物质数量太大,无法使生物质成为可靠的能源解决方案。
同样地,水力发电长期以来一直被用于为一些数据中心提供能源,但水力发电的局限性在于你只能在某些地方建造水电站——也就是那些水流快速的地方,这使得水力发电对于远离河流的数据中心来说是不切实际的。
风能、太阳能和地热能源的局限性
与生物质能和水电能源相比,风能、太阳能和地热能更适合大规模使用,但也仍然有明显的缺点。
就风能和太阳能而言,最明显的挑战可能是能源可用性会因天气而异。如果是阴天,你的太阳能数据中心将需要替代能源来维持运行。如果风平浪静,你的风电场则可能无法产生足够的兆瓦级电力来维持服务器和数据中心设备的运行。
地热虽然没有这个缺点,它的功能不受天气条件的影响,但由于用地热发电需要建造专门的发电厂,因此与从建设成本较低的风能或太阳能发电场采购能源相比,地热能源采购需要更大的前期投资。事实上,在美国只有不到0.5%的电力是使用地热能源产生的。
清洁能源采购的另一个缺点,是会增加与数据中心设施相关的物理空间。尤其是风能和太阳能发电场,占用大量不动产,可能导致更大规模的栖息地破坏,可能会减少你的碳排放量,但不会对自然环境造成一些损失。
储存可持续能源产生的电力,也可能是一大挑战。除非你手头有大量的电池——电池本身会带来很高的可持续性成本——否则你无法保留风能、太阳能和地热能产生的多余电力。你要么用掉,要么就失去了。
因此,如果你想完全使用清洁能源为你的数据中心供电,那么你通常需要建造清洁能源采购设施,而且如果你想确保他们可以应对能源消耗高峰期,那么总输出容量要远高于数据中心在大多数情况下所需的容量。或者,你必须在高需求时期使用非清洁能源,作为对清洁能源的补充。
清洁能源:不完美,但值得
上述挑战意味着,在大多数情况下,仅使用风能、太阳能、地热或者是其他可再生低碳能源为数据中心供电,对于大多数数据中心来说是不切实际的。几乎总是需要传统能源来补充清洁能源的,或者在清洁能源不可用时作为备用。
但这当然并不意味着投资清洁能源是不值得的。即使你的数据中心仅有20%的能源来自可再生能源,与能源相关的碳排放量仍然可减少20%,这一点不可忽略。将这一成就与对提高能源效率的措施(如液体冷却和智能电源管理系统)上的投资相结合,你就可以在数据中心可持续性方面真正地有所作为。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。