至顶网服务器频道 11月15日 新闻消息(文/李祥敬):德国柏林时间2018年11月14日,OpenStack Summit Berlin 2018进入第二天,在今天的活动上,OpenStack基金会宣布了最新的OpenStack Train版本,并宣布Open Infrastructure Summit将在2019年Q4在中国举行。同时基金会详细介绍了OpenStack基金会旗下的四个独立项目——Airship、Zuul、StarlingX、Kata Containers。
Airship是一个新型云开放基础设施项目,其最初是想实现一个在Kubernetes上引入OpenStack(OOK)以及生成云的生命周期管理的声明式平台。Airship允许云运营商在每个阶段管理站点,包括从最初创建到后来次要和主要更新以及配置更改和OpenStack升级。它通过统一、声明式、完全容器化以及云原生平台来实现这一点。
开源的持续集成/部署平台(CI/CD)Zuul已经成为由OpenStack基金会托管的独立项目。该项目最初是为OpenStack CI测试开发的。它已经被许多不同的组织所贡献和使用。Zuul具有项目门控,具有Ansible的CI/CD和跨项目依赖关系。
StarlingX是一个为分布式边缘云提供用户服务的开源项目,为用户提供分布式边缘云所需的服务,用户可以在这些服务中进行选择,或将其作为程序包加以使用。该项目以开源生态系统中的现有服务为基础,采用如Ceph、OpenStack和Kubernetes等前沿项目组件,并通过配置管理和故障管理等新服务加以补充,其重点集中在高可用性(HA)、服务质量(QoS)、性能和低延迟等关键要求方面。
Kata Containers是由OpenStack基金会管理,是一个可以使用容器镜像以超轻量级虚机的形式创建容器的运行时工具,Kata Containers创建的不同容器跑在一个个不同的虚拟机(kernel)上,比起传统容器提供了更好的隔离性和安全性。同时继承了容器快速启动和快速部署等优点。Kata Containers符合OCI(Open Container Initiative)规范,同时还可以兼容K8S的CRI(Container Runtime Interface)接口规范。
在主题演讲中,OpenStack Nova项目负责人则介绍了Nova的最新特性,比如对GPU、FPGA、ARM等的支持。Nova是OpenStack架构中最为基础的服务组件。
在OpenStack项目中,Nova是一个成熟而复杂的项目,而伴随着整个OpenStack技术框架日趋成熟,Nova的稳定性和采纳程度都在持续攀升。同时,受人工智能、机器学习、NFV和边缘计算等用例的驱动,Nova也在与时俱进,不断吸纳新的技术。
GPU加速器的Cyborg接口现在允许从OpenStack框架内访问和重新编程FPGA,包括用于以编程方式自动执行此操作的REST API。
Ironic裸机控制器允许大规模集群将其镜像加载到主内存而不是本地存储,并且这将大大加快裸机服务器的部署。Ironic还具有控制物理服务器中BIOS设置的接口,并配置各种设置,例如SR-IOV外设总线虚拟化。
现在雅虎大规模运行Ironic插件,管理着超过100万个内核,运行各种应用程序。Adobe拥有一个超过100000个核心的OpenStack云,由四个人运营——该公司表示,运行成本比公有云上的基础设施低30%。企业SaaS软件供应商Workday拥有一个50000核心的OpenStack集群,该集群正在扩展到300000个核心,以支持快速扩展的业务。
随着工作负载数量的增加以及工作负载本身在容量和用户方面的增长,OpenStack用户集群的规模不断扩大,这意味着目前OpenStack云上的虚拟机管理程序和虚拟机的数量不断发展,即使容器正在成为打包和部署软件的方式。
此外,备受关注的Superuser Awards获奖者被公布,那就是city network,其是在欧洲和北美拥有多个数据中心的OpenStack公有云供应商。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。