日本巨头与冰岛初创公司Atmonia合作,共同开发可持续氨制备工艺
富士通表示已经在氨清洁生产方面取得进展,并认定氨有望成为数据中心新的供能来源。该公司指出,也许未来的数据中心将利用容器盛装的清洁氨实现稳定运转。
作为日本的跨国企业巨头,富士通今年4月宣布正在与冰岛初创公司Atmonia合作开发新的催化剂,借以寻找一种可持续的氨生产工艺。在此次合作中,富士通负责提供高性能计算(HPC)资源,探索新的氨制备底物与催化剂组合。
富士通公司表示,Atmonia方面正持续为他们提供数据集,用以构建潜在的催化剂概念验证模型。据从事该项目的富士通实验室研究员Koichi Shirahata介绍,本轮开发的主力军一是量子化学模拟、二是专用AI,后者负责从模拟数据中提取重要洞见。
Shirahata表示,运行模拟的基础设施主要是富士通基于Arm计算架构打造的Fugaku超级计算机。作为曾经的全球最强超算,研究人员只用到这套系统中的约100个节点。
富士通研究部高级总监Surya Josyula告诉我们,该公司去年一直在研究清洁氨的制备路线,而且有望将其作为数据中心的替代性燃料。
Josyula解释道,“可以想象,富士通在全球各地运营着多处数据中心,用以支撑我们的内部业务。此外,我们也会代表客户帮助其运营基础设施。”
“因此,一旦我们能够成功制备出清洁氨,也许就能利用它作为数据中心的备用电源、甚至是主电源燃料。”
根据富士通的说法,目前所有主要云服务商和超大规模供应商,都在着力推进100%清洁能源转型。当下,数据中心在全球温室气体排放总量中的占比约为1%,而且数据中心设施的规模仍在呈指数级增长。
Josyula提到,“因此我们打算探索在太阳能和风能之外,还有哪些能源可以支撑起清洁数据中心。我们相信,清洁氨就是合乎逻辑的选项。”
换句话说,富士通打算在无风、多云的时段先将氨作为备用能源,或者是用来应对电网传输故障等特殊状况。具体方式可能是在发电机中直接使用氨作为燃料,也可能是将氨裂解为氢气来以燃料电池供能。
但根据Carbon Neutral Consulting公司总裁Steve Crolius的观点,既然已经能够在备用电源中实现脱碳,那为什么不更进一步,直接将其作为主电源的一部分呢?
“大家不妨站在那些努力实现完全可持续运营的数据中心管理者的角度,尝试思考这个问题。大多数国家电网依赖的仍然是化石能源、核能加上可再生能源的综合体,因此零碳排放的目标还有很长的路要走,其中最大的阻碍就是以柴油作为备用发电机燃料。面对这样的现实,大家会怎么做?”
在Crolius看来,氨确实是种很有前途的替代品,它在燃烧时不会排放任何二氧化碳,运输和存储难度又显著低于氢气。毕竟目前世界各地就已经部署有不少氨供应管道。
问题在于,目前的氨商业生产主要依靠Haber-Bosch工艺,即使用来自化石燃料的氢气。这种工艺本身会产生大量二氧化碳。因此,富士通和Atmonia才着手研究催化剂,希望探索如何从水中制备出氨、从空气中制备出氮,再最终把这些可再生资源转化为清洁电力。
Crolius指出,“只要能够用电力生成氨,也就获得了一种新的能源载体。它更易于运输和储存,生成成本也更为合理。在数据中心内,氨可以作为燃料,不分白天黑夜为基础设施提供所需的能量。”
Atmonia公司的一位发言人则证实,目前催化剂的开发进展非常顺利。
“虽然进展不算快,但整个团队确实在朝着常温常压下可持续生产氨的功能性催化剂迈出着坚定的探索步伐。将我们掌握的这些数据纳入富士通的超算系统,就能显著加快研究进展。”
在被问及富士通是否也在同步开发直接利用氨作为数据中心能源的系统时,Josyula表示公司“目前还没有宣布任何公开计划”,一切尚处于研究阶段。而且使用催化剂制造氨的成熟技术,可能还需要几年才能研究完成。
他总结道,“催化剂才是其中的关键,而Atmonia公司在这方面颇具远见。他们希望通过单一容器完成制备,把所有工艺都整合进这个容器内部。整个项目就如同登月计划,而作为其中关键一环的催化剂,必须要靠超级计算系统、材料科学和人工智能的结合才能攻克。”
好文章,需要你的鼓励
这项研究探讨了具身智能体(如机器人)如何通过记忆为用户提供个性化服务。宜远大学研究团队开发了MEMENTO评估框架,通过两阶段设计评估智能体利用记忆的能力。研究将个性化知识分为物体语义(如"我最喜欢的杯子")和用户模式(如"早餐习惯")两类。实验表明,即使是GPT-4o等前沿模型在需要综合多记忆的任务中也表现出30.5%的性能下降,特别是在理解用户模式方面存在明显挑战。
这项研究提出了一种创新的"生命长久安全对齐"框架,使大语言模型能够持续适应不断进化的越狱攻击策略。框架核心是元攻击者与防御者之间的对抗演化循环:元攻击者不断发现新的攻击策略,防御者则学习抵御这些攻击。实验表明,经过两轮迭代后,防御者成功将攻击成功率从73%降至7%,同时保持了模型的有用性。这种动态进化方法相比传统静态安全对齐更有效,为构建持续安全的大语言模型提供了新方向。
Enigmata是一项突破性研究,通过合成可验证的拼图训练大语言模型的逻辑推理能力。该研究创建了包含36种任务、7大类推理能力的完整训练系统,每项任务都配备了可控难度生成器和自动验证器。基于此训练的Qwen2.5-32B-Enigmata模型在拼图推理基准上超越了o3-mini-high和o1等顶尖模型。更令人惊喜的是,当应用于更大规模模型时,这些拼图数据不仅提升了模型解决拼图的能力,还意外增强了其数学和STEM推理能力,展示了纯逻辑训练带来的广泛泛化优势。
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。