开源就是选择和做出选择。在2011年推出SUSE Manager的时候,我们做出的选择是拒绝走别人的老路。还有,我们的SUSE Manager基于Spacewalk项目。从那以后,我们再也没有回头。Spacewalk为我们提供了扎实、成熟的代码库,时至今日我们仍然可以根据需要对它进行现代化升级。
几年之后,Spacewalk最初的贡献者、来自RedHat的朋友们做出了不同的决定:从零开始研发他们的新一代RedHat Satellite(红帽卫星)。这意味着他们对维护和发展Spacewalk代码库的意愿日渐降低,这也让他们逐渐站到了“遗留”产品的对立面。
与此同时,SUSE Manager团队则发现了自己对Salt的热衷。我们用一个新的Twitter Bootstrap主题对SUSE Manager的网络用户界面体验进行了现代化升级,后来又加入了新的基于React JS的交互式组件。此外,我们还增加了一个新的框架用于订阅管理,并且开始将SUSE Manager与容器世界整合,增加了容器镜像构建和Kubernetes容器审计。在这个过程中,我们利用旧版Spacewalk保留了对API的向下兼容性。
SUSE Manager 3.2推出之后,我们将为虚拟机增加基于KIWI的镜像构建和可安装的Linux镜像,还有新的并且非常酷的基于Salt的PXE引导堆栈,可以让用户通过Salt完成从裸机到应用的完整物理系统的配置和安装。
这些变化当中有不少并没有进入Spacewalk项目,因为它们和项目的主要维护者日益缩小的关注点并不相融。
于是,我们不久前去找了RedHat,试图找到新的方式来管理Spacewalk项目并且同时满足双方的需求:既让他们有一个稳定的代码库可以维持RedHatSatellite5的“遗留代码”,也让我们可以在同一个框架之下进行快速创新。
最后,我们不得不承认,唯一有效的方法就是用一个新的名字让Spacewalk项目“和平分手”。
于是,Uyuni应运而生:我们在布拉格举行的openSUSE大会上发布了Uyuni,作为SUSE Manager新的上游项目。我们邀请Spacewalk社区、我们的客户、合作伙伴以及所有希望加入我们的开源支持者和我们一起为传统的软件定义的混合IT基础架构开发新一代生命周期管理。
Uyuni的开发模式将和我们的openSUSE Tumbleweed项目非常类似:我们将不断发布新的版本来接受严格的自动化测试。它不会在商业上得到SUSE的支持,也不会获得像SUSE Manager那样严格的质保和产品生命周期保障,但它不会有任何形式的减配。我们的所有开发工作都在GitHub上公开进行。
我们在很多领域都需要社区的贡献。当然,我们首先需要大家为项目的未来路线图和发展方向建言献策。
我们在增加Linux的发行版方面也需要更有力的支持(可能也包括非Linux的平台)。
如果你是硬件制造商并且希望更好地整合你的硬件自动化API和软件栈,请加入我们!
云和容器空间里数量庞大的开源基础架构项目也是一样,与生命周期管理和自动化框架整合之后也可以从中受益。
最后,我们欠另一个上游社区Salt项目太多了。我们推出Uyuni的目的之一就是促进与Salt的深层次协作。所以,任何能够改进Salt的贡献对Uyuni也有好处!
我们将尽可能与Spacewalk项目保持同步,只要它还在。但是,Uyuni是一个不断创新的项目。
如果你想了解更多信息,请阅读openSUSE新闻稿,或者通过新的项目网页公布的渠道与Uyuni团队联系。项目网页今天已经开放二进制文件下载。
我们目前仍在做代码清理工作,但是项目的源代码很快将登录GitHub并接受大家的贡献!
顺便说一句,Uyuni这个名字来自世界上最大的盐沼。取这个名字是为了致敬Salt,因为它为Uyuni的诞生做出了重要的贡献。正如最初的Spacewalk,我们几乎不受任何限制,因为Uyuni实在是太浩瀚了。它不仅让我们脚踏实地,也让我们不需要航天服和生命补给就能漫步太空。
我是JoeWerner,我在南非用博客记录生活。这里的太阳从另一侧照耀大地,证明除了一些大型盐沼之外,地球其实并不像我的标题所说的那样平。
我来这里参加开普敦和约翰内斯堡的“专家日”活动。“专家日”活动是详细了解SUSE的产品和项目的好机会!
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。