bcachefs文件系统在被Linux内核代码库"外部维护"后,发布了首个可动态加载版本的软件包。
bcachefs的开发已正式从Linux内核本身的开发中分离。目前,正在开发的内核6.17仍包含bcachefs代码,但与6.16版本相比没有修改。作为回应,该项目发布了首套可作为DKMS模块动态加载的版本软件包,这是项目负责人Kent Overstreet在几周前的邮件中承诺的。
该软件包以APT仓库形式提供,目前仅限于Ubuntu和基于Debian的发行版使用。
这是原本应该成为内核6.17中新版本的代码——但Linus Torvalds在上个月将其驱逐。这意味着如果你在当前的内核6.17候选版本上测试,会有两个不同版本的bcachefs可用:内置版本(与内核6.16中的代码相同)和动态加载DKMS代码中的新版本。
Linux基准测试网站Phoronix最近对6.17中所有内置文件系统进行了性能测试比较,bcachefs表现不佳。我们统计了五页图表中的16项测试,bcachefs在所有测试中都是最慢或倒数第二。Phoronix用新的DKMS版本重复了测试,结果相对更好。在多项测试中,新版本的速度大约快了一倍,排名位于中等水平。
因此转向DKMS并没有直接损害它,新版本的性能明显更好。仍有改进空间,但这个年轻且尚未高度优化的代码正在很好地进展。
**openSUSE改变立场**
自从我们报道openSUSE放弃bcachefs支持后,Overstreet也与那里的内核维护者进行了交流。看起来该公司的强硬立场已经有所缓和。目前,openSUSE内核有一个补丁会打印警告信息:
"bcachefs将在6.18版本中从SUSE内核中移除。由于其主线转换为'外部维护'状态,此内核可能缺少关键的bcachefs修复。"
openSUSE bugzilla条目中的评论显示这一变更正在考虑中。在Overstreet在openSUSE Factory邮件列表上发言后,现在看起来openSUSE Tumbleweed在内核6.17发布时不会移除bcachefs。开发者Jirí Slaby表示:
"与Kent讨论后,我支持仅在6.18版本中禁用。到那时他们应该准备好DKMS,届时可能会有人打包KMP。"
这对Tumbleweed用户和bcachefs本身都是好消息。
**前方可能有麻烦**
不过,流出的消息并非都是好的。长期内核开发者Christoph Hellwig向linux-next提交了一个补丁,将从内核6.18及更高版本中移除对write_cache_pages API的支持。
提议的变更理由是,随着bcachefs的移除,没有任何东西再使用它。NTFS3现在是内置的,而OpenZFS无法包含且永远不会,除非Oracle决定重新授权——这不太可能。
Hellwig偶尔会在The Register上出现十多年,自2015年他指责VMware剽窃Linux内核源代码以来。在2016年的后续报道中,我们称他为"王牌内核开发者"。
不过可以说,他不是外交官。最近,The Reg报道了他将在Linux内核中混合Rust和C比作癌症。
看起来移除这个API确实会让那些代码不属于内核源代码的文件系统的生活变得非常困难。即使没有内置代码使用它,我们也不希望看到OpenZFS和bcachefs因其移除而受到影响。
**补充说明**
当bcachefs看似要被逐出教会时,我们报道了Meta内核开发者Josef Bacik的批评,他赞扬了Btrfs,他对Overstreet的批评我们认为是比较严厉的。我们提到的人格冲突不仅仅是Torvalds和Overstreet之间的。
就在几周后,Bacik在Mastodon上宣布他将离开Meta并停止内核开发工作。相反,他将为"烧钱大户"Anthropic工作。
Q&A
Q1:什么是bcachefs?为什么被从Linux内核中移除?
A:bcachefs是一个文件系统,原本包含在Linux内核中。由于与Linus Torvalds的冲突,它被标记为"外部维护"状态,从内核开发中分离出来。
Q2:bcachefs转向DKMS模式后性能如何?
A:转向DKMS模式后性能明显改善。在多项基准测试中,新的DKMS版本速度大约快了一倍,从最慢或倒数第二提升到中等水平。
Q3:普通用户如何使用bcachefs的新版本?
A:目前新版本以APT仓库形式提供,可作为DKMS模块动态加载,但仅限于Ubuntu和基于Debian的发行版使用。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。