卫星正在让这些看不见的东西变得可见。
克服地面监测的局限性
研究人员有许多可利用的工具来测量温室气体,从地面监测设备到气象气球再到海洋浮标。这些工具使他们能够较为精确地估算出大气中温室气体的总量。但它们在确定温室气体排放源方面并不出色。
地面传感器能够对局部的温室气体排放情况进行精确测量。无人机和飞机进行的空中勘测可以识别出局部的排放源。但这些方式缺乏全球范围的覆盖。
IEEE 高级会员Inderpreet Kaur表示:“卫星发挥着至关重要的作用,它能够对整个地球,包括海洋、沙漠和极地等偏远地区,提供全面、持续的监测覆盖,而在这些地区,地面传感器和空中勘测的作用是有限的。”
卫星是如何做到的
大气中的气体吸收不同波长的太阳光。大多数温室气体监测卫星依靠光谱成像仪来检测这些吸收模式,从而能够发现大气中的甲烷和二氧化碳的含量水平。大多数温室气体监测卫星在短波红外光谱范围内运行,这对于检测二氧化碳和甲烷特别有效。
传感器技术在不断进步。最新的仪器采用高光谱成像技术来捕捉数百个波长波段。这使得检测多种气体成为可能,并帮助研究人员区分气体和传感器产生的噪声。
分辨率至关重要
大约三十年来,一些地球观测卫星已经能够探测到温室气体,尽管它们最初是为其他目的而设计的。
最早以监测温室气体为主要任务而设计的卫星是日本宇宙航空研究开发机构的温室气体观测卫星(GOSAT),该卫星于 2009 年发射。GOSAT 采用宽幅成像方法,监测温室气体浓度的大规模变化趋势。
随后,美国国家航空航天局(NASA)的轨道碳观测卫星 - 2(OCO-2)以及包括中国的碳卫星(TanSAT)在内的其他几颗卫星相继发射。这些宽幅卫星共同为气候模型提供了重要数据。这些数据还揭示出,温室气体排放量在全球范围内都存在被低估的情况。
这促使研究人员开始寻找温室气体排放源,尤其是甲烷,在20年的时间里,甲烷的致暖能力大约是二氧化碳的80倍。要做到这一点,就需要发射分辨率越来越高的卫星。2016年,一家私人机构发射了温室气体演示卫星(GHGSat-D),也被称为 “克莱尔(Claire)”。该卫星搭载的成像仪的能力大约是轨道碳观测卫星-2(OCO-2)的20倍,每个像素能捕捉到一块50米乘50米的地面区域。
Kaur表示:“分辨率越高,就能够更精确地检测和监测像管道泄漏或工业场所排放这类较小的排放源。如果没有足够的分辨率,排放可能会被遗漏或错误归因,从而使得有效解决相关问题变得困难。”
有多少卫星在跟踪温室气体?
根据地球观测卫星委员会的温室气体卫星任务数据库,截至2025年,至少有9颗专门用于全球温室气体监测任务的卫星已被发射升空。
另外还有11项排放源探测任务 —— 其中一些任务由多颗卫星执行 —— 专注于识别特定的甲烷和二氧化碳排放源。还有数十颗通用地球观测卫星也搭载了能够探测温室气体的传感器。
此外,轨道上还有许多搭载了高光谱成像仪的通用卫星,它们能够探测温室气体水平。
实际应用案例
未来展望
至少有10项不同的温室气体测绘卫星任务计划在2026年及以后实施,其中3项致力于广泛监测全球温室气体水平,7项旨在探测自然和人为排放源的排放羽流。
机器学习正被用于分析卫星产生的大量数据,以实现从海量数据中识别关键信息过程的自动化。
一个新兴趋势是利用静止轨道卫星持续监测特定区域,如北美、中东和北极地区,因为这些地区的永久冻土融化有可能将大量甲烷释放到大气中。
另一个新兴趋势是:温室气体测绘越来越多地成为私人组织的工作范畴,这些组织将泄漏检测视为一项业务,同时也涉及政府组织与非政府组织之间的合作。其中一个例子是 “甲烷卫星(MethaneSAT)” 项目,它能够检测到低至十亿分之三的气体浓度。
促成这一切的一个因素是:物理硬件在尺寸和成本上都有所缩减,这使得许多能够协同工作的小卫星得以部署。这些卫星星座意味着可以获取更大量的数据以及实现更高的成像分辨率。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。