为虚拟机提供绝佳隔离效果,同时亦延伸至更为广泛的ARM服务器领域。
Xen项目已经发布其虚拟机管理程序的4.10版本。
项目维护负责人Julien Grail写道,“正如Xen 4.9一样,我们在Xen 4.10中同样坚持以安全为中心的原则,投入大量精力提升代码质量并强化安全性水平。”
“这不可避免地会放慢我们对新功能的接受度,自然也推迟了版本发布的速度; 但我们相信,我们已经在成熟的安全实践与创新之间找到了有意义的平衡点。”
那么新版本带来哪些新惊喜?首先是在选定CPU上运行虚拟机的能力,以及提供一种更好的方式“在处理器上表达vCPU的位置偏好,从而在适当配置条件下提升缓存与内存性能。”
虚拟机内省机制得到增强,特别是“在ARM上为虚拟机添加了软件页表walker,其为ARM CPU的引入打下了良好的基础。”
新的UI则允许用户轻松实现“对特定引导参数的修改,而无需重新引导Xen。”
根据该项目最新版本发布内容的说明,“目前可通过配置文件中的类型选项选择访客类型,其中用户可以选择PV、PVH或者HVM访客。”
对系统芯片的支持能力也已经得到增强,目前其可支持64位ARMv8-A架构高通Centriq 2400与Cavium ThunderX芯片。由于二者皆属于服务器架构,因此Xen显然已经决定为市场上可能陆续出现的ARM支持型服务器作好准备。
不过此次发布的新版本也同时增加了在微型服务器上运行二级缓存分配技术(简称CAT)的支持能力,而这项技术为英特尔CPU所独有。因此,Xen项目明显不会在ARM上押下全部赌注。
感兴趣的朋友可以点击此处查看完整的版本说明,亦可点击此处参阅如何访问并构建这套最新发行版。
如果大家此前已经注意到美国国家安全局曾经为Xen项目贡献大量代码,那么这一次同样不例外——国安局方面继续被列入贡献者名单之内。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。