至顶网服务器频道 11月15日 新闻消息(文/李祥敬):德国柏林时间2018年11月14日,OpenStack Summit Berlin 2018进入第二天,在今天的活动上,OpenStack基金会宣布了最新的OpenStack Train版本,并宣布Open Infrastructure Summit将在2019年Q4在中国举行。同时基金会详细介绍了OpenStack基金会旗下的四个独立项目——Airship、Zuul、StarlingX、Kata Containers。
Airship是一个新型云开放基础设施项目,其最初是想实现一个在Kubernetes上引入OpenStack(OOK)以及生成云的生命周期管理的声明式平台。Airship允许云运营商在每个阶段管理站点,包括从最初创建到后来次要和主要更新以及配置更改和OpenStack升级。它通过统一、声明式、完全容器化以及云原生平台来实现这一点。
开源的持续集成/部署平台(CI/CD)Zuul已经成为由OpenStack基金会托管的独立项目。该项目最初是为OpenStack CI测试开发的。它已经被许多不同的组织所贡献和使用。Zuul具有项目门控,具有Ansible的CI/CD和跨项目依赖关系。
StarlingX是一个为分布式边缘云提供用户服务的开源项目,为用户提供分布式边缘云所需的服务,用户可以在这些服务中进行选择,或将其作为程序包加以使用。该项目以开源生态系统中的现有服务为基础,采用如Ceph、OpenStack和Kubernetes等前沿项目组件,并通过配置管理和故障管理等新服务加以补充,其重点集中在高可用性(HA)、服务质量(QoS)、性能和低延迟等关键要求方面。
Kata Containers是由OpenStack基金会管理,是一个可以使用容器镜像以超轻量级虚机的形式创建容器的运行时工具,Kata Containers创建的不同容器跑在一个个不同的虚拟机(kernel)上,比起传统容器提供了更好的隔离性和安全性。同时继承了容器快速启动和快速部署等优点。Kata Containers符合OCI(Open Container Initiative)规范,同时还可以兼容K8S的CRI(Container Runtime Interface)接口规范。
在主题演讲中,OpenStack Nova项目负责人则介绍了Nova的最新特性,比如对GPU、FPGA、ARM等的支持。Nova是OpenStack架构中最为基础的服务组件。
在OpenStack项目中,Nova是一个成熟而复杂的项目,而伴随着整个OpenStack技术框架日趋成熟,Nova的稳定性和采纳程度都在持续攀升。同时,受人工智能、机器学习、NFV和边缘计算等用例的驱动,Nova也在与时俱进,不断吸纳新的技术。
GPU加速器的Cyborg接口现在允许从OpenStack框架内访问和重新编程FPGA,包括用于以编程方式自动执行此操作的REST API。
Ironic裸机控制器允许大规模集群将其镜像加载到主内存而不是本地存储,并且这将大大加快裸机服务器的部署。Ironic还具有控制物理服务器中BIOS设置的接口,并配置各种设置,例如SR-IOV外设总线虚拟化。
现在雅虎大规模运行Ironic插件,管理着超过100万个内核,运行各种应用程序。Adobe拥有一个超过100000个核心的OpenStack云,由四个人运营——该公司表示,运行成本比公有云上的基础设施低30%。企业SaaS软件供应商Workday拥有一个50000核心的OpenStack集群,该集群正在扩展到300000个核心,以支持快速扩展的业务。
随着工作负载数量的增加以及工作负载本身在容量和用户方面的增长,OpenStack用户集群的规模不断扩大,这意味着目前OpenStack云上的虚拟机管理程序和虚拟机的数量不断发展,即使容器正在成为打包和部署软件的方式。
此外,备受关注的Superuser Awards获奖者被公布,那就是city network,其是在欧洲和北美拥有多个数据中心的OpenStack公有云供应商。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。