在Linux诞生之前,GNU项目一直在开发基于Mach的Unix兼容操作系统。如今,紧随Debian 13的脚步,该项目推出了全新版本。
Debian GNU/Hurd 2025正式发布
Debian GNU/Hurd 2025是这个"另类"GNU操作系统的最新版本。开发者Samuel Thibault在发布邮件中宣布,这个版本包含了可工作的x86-64架构支持,这要归功于Rump层中的NetBSD磁盘驱动程序——这也意味着它现在可以使用USB磁盘和CD驱动器。Hurd已经移植了Rust编程语言,拥有"相当可用"的SMP支持,并且可以运行"约72%的Debian软件包,还会有更多!"这是该项目自2024年6月以来的首次新闻更新,显然取得了重大进展。
这不是普通的Unix替代系统
需要明确的是,这并不是一个传统意义上的Unix替代操作系统。Hurd既不是Linux的任何形式,也不是BSD系统。虽然Debian GNU/Hurd 2025是Debian Trixie的一个版本,但请记住这是一个高度实验性的操作系统,采用了激进的设计理念。它无法在多种硬件型号上运行,也无法运行大多数现有软件。
项目的说明文件被命名为"YES_REALLY_README",开头就明确指出:"GNU/Hurd不是Linux。"这一点非常重要。Hurd是一个专为研究操作系统设计和实现的实验性系统,类似于继续开发Plan 9的分支项目9front。
Debian的多样性
Debian不仅仅是一个Linux发行版。除了Debian GNU/Linux之外,还有其他使用不同内核的Debian版本,因此根本不是Linux系统。Debian已经持续开发了32年,在此期间出现了多个在其他内核上运行Debian用户空间的版本。
过去曾有Debian GNU/kFreeBSD(使用FreeBSD内核)和Debian GNU/NetBSD等项目。遗憾的是,由于人力不足,GNU/kFreeBSD项目已于2023年结束。但Debian GNU/Hurd项目依然活跃并持续发展。
微内核的技术挑战与前景
Hurd是一个类Unix的微内核操作系统。在1980年代末和1990年代初,这是操作系统研究的热门领域,但Windows NT和Linux等稳健的32位操作系统的出现抑制了操作系统研究的发展。
微内核设计面临更大挑战。大部分操作系统在用户空间运行,像普通应用程序一样,而不是在处理器的特权监督模式下运行。这意味着许多独立的小代码模块必须相互通信,每秒发送和接收数百万条消息来协调活动。由于通信量巨大,性能成为重大负担。
尽管从理论角度看微内核更清洁优雅,但微内核方式最终败给了更简单实用的方案。不过,微内核并非完全失败——QNX、Minix 3和L4等微内核系统在嵌入式和特定领域获得了广泛应用,数十亿设备都在悄然使用微内核技术。
**未来展望**
随着Linux内核6.16版本的发布,代码量已接近4000万行,跨越近10万个文件,规模变得极其庞大。也许有一天,Linux会被更简单、更易理解、更容易管理和维护的系统所取代。我们应该庆幸Hurd项目仍在继续。一个能运行近四分之三Debian软件包的全自由开源微内核系统对于x86-64平台来说是一项伟大成就。
Q&A
Q1:Debian GNU/Hurd 2025有什么新特性?
A:Debian GNU/Hurd 2025包含可工作的x86-64架构支持,集成了NetBSD磁盘驱动程序,现在可以使用USB磁盘和CD驱动器。还移植了Rust编程语言,具备SMP多处理器支持,能够运行约72%的Debian软件包。
Q2:为什么说Hurd不适合普通用户使用?
A:Hurd是高度实验性的操作系统,采用激进的微内核设计。它无法在多种硬件上运行,无法运行大多数现有软件,主要面向研究操作系统设计和实现的专业人士。如果你需要运行常见应用或替代Windows,答案是"不行"。
Q3:微内核技术为什么没有在桌面系统普及?
A:微内核虽然设计更优雅,但实现难度大。系统组件需要大量进程间通信,每秒数百万条消息的协调会带来性能负担。相比之下,Linux的单体内核设计更简单实用,虽然不够优雅但足够好用,这是生存优势。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。