2018年10月10日——瑞士巴塞尔(Cloud Foundry峰会)——SUSE宣布将通过SUSE Cloud Application Platform为大受欢迎的Cloud Foundry开发模式推出新的Kubernetes原生实施,进一步提升公司帮助企业加快应用交付、加速创新和提高业务敏捷性的能力。这是SUSE为了结合Kubernetes和Cloud Foundry技术并向Kubernetes用户提供顶级云原生DevOps体验而采取的最新举措。SUSE Cloud Application Platform能够通过自动化消除对构建和管理容器镜像的依赖,进而提高开发者的生产率。
SUSE将引入开源Project Eirini的技术,让Kubernetes可以作为容器编制引擎,通过Cloud Foundry部署并管理应用。Eirini允许操作员选择Kubernetes功能在SUSE Cloud Application Platform上编制应用容器,同时保留不少应用开发者都很熟悉的Cloud Foundry用户体验。
SUSE负责产品和技术项目的副总裁Gerald Pfeifer表示:“SUSE为云原生应用交付提供高生产率解决方案。我们的方法是找出领先的开源技术,然后以对客户有益的方式把它们结合到一起。今天,这就意味着将Cloud Foundry模型无人可及的生产率和SUSE Cloud Application Platform的现代Kubernetes基础架构相结合。这个特殊的组合可以帮助我们的客户降低复杂性并提高敏捷性,从而满足数字经济日新月异的需求。”
为了结合Kubernetes和Cloud Foundry,SUSE从2017年就开始着手容器化Cloud Foundry并在Kubernetes中运行。此举减小了Cloud Foundry的足迹,并提升了Kubernetes用户的管理便捷性。下一步是将Cloud Foundry的内部调度程序替换成Kubernetes,目的是为Cloud Foundry提供自上而下的Kubernetes原生实施并进一步为Kubernetes用户简化SUSE Cloud Application Platform。
云原生计算基金会执行董事DanKohn表示:“开源的最大优势之一就是由社区推动的软件发展方法,鼓励思想自由流动并激发创新。SUSE在CNCF和Cloud Foundry社区推动的协作反映出我们的共同目标:改善Kubernetes开发者和用户的体验。”
Cloud Foundry基金会首席技术官Chip Childers表示:“Cloud Foundry基金会很高兴看到SUSE为Cloud Foundry社区围绕Kubernetes平台付出的努力所做的贡献。这是开源生态系统在不同的项目、社区和技术之间牵线搭桥并催生出企业解决方案的一个实例。”
SUSE Cloud Application Platform是一款基于Kubernetes的现代应用发布平台,软件开发和运营团队用它来简化传统及新兴云原生应用的生命周期管理。该平台集合了行业领先的Kubernetes和Cloud Foundry技术,通过推动DevOps流程集成加速创新,提高了IT响应能力,并实现了投入回报的最大化。
Adfinis SyGroup AG首席执行官兼首席技术官Nicolas Christener表示:“SUSE Cloud Application Platform在Kubernetes中运行,因此对我们来说在我们的多云环境中使用相对简单。我们先在公有云Kubernetes服务上运行并测试平台,然后再部署到私有云Kubernetes基础架构中实现生产。效果真的太好了。”
SUSE计划明年推出新版SUSE Cloud Application Platform,届时将增加Cloud Foundry的Kubernetes原生实施,包括Project Eirini Kubernetes调度程序。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。