当地时间,5月21日,浪潮在2018 OpenStack温哥华峰会上正式发布全新InCloud OpenStack 5.5,融合最新的容器技术实现了OpenStack的容器化部署,在规模化部署、简单易用和智能化运维上带来更出色的表现,帮助全球云计算用户更好的构建先进的云基础设施。
此次InCloud OpenStack 5.5海外首发,OpenStack基金会执行总裁Jonathan受邀出席了本次新品发布会,并对新品和浪潮在社区的贡献给予了高度认可。Jonathan表示:作为OpenStack基金会黄金会员的浪潮,对于OpenStack 的贡献在逐年增加,有很多来自浪潮的专家投入到OpenStack中,为数十个的不同项目做出了贡献,浪潮从市场和技术两个维度都为OpenStack做出了很大贡献。
在云计算已成为智慧时代基础设施的当下,浪潮通过与自身服务器、存储产品体系的深度融合,凭借完整的计算虚拟化、软件定义存储、软件定义网络产品体系及整体交付能力,致力于为用户交付敏捷、开放、融合、安全的软硬一体化云基础设施。
峰会现场,浪潮集团副总裁Jay Zhang出席InCloud OpenStack 5.5发布仪式并发表精彩演讲,据Jay Zhang介绍:最新发布的产品更加强调敏捷交付与大规模部署,可满足行业用户对于大规模部署稳定运行、智能化运维、两地三中心等诉求,进一步显示出浪潮持续优化InCloud OpenStack原生产品的创新能力,以及基于行业实践和面向未来的技术发展洞察。
InCloud OpenStack在安装部署方面,基于容器化技术封装各个组件为独立于宿主操作系统的容器化镜像,依靠统一分发实现一键式批量部署。基于数据可视化组件,实现服务编排可视化拖拽,可基于系统模板或自定义拖拽创建编排模板,通过所见即所得的方式完成资源的编排,提升用户友好度。
InCloud OpenStack 5.5架构图
InCloud OpenStack 5.5基于OpenStack架构实现了虚拟机、裸机、容器三种计算资源的同平台统一管理和对外提供服务,进行三种资源的并行调度,实现集计算、存储和网络资源的融合共享,降低运维与管理成本。
针对虚拟机服务支持自定义RAID、支持多租户、裸金属与VPC内的虚拟机互通等,有效提升系统性能及灵活性。针对容器高效部署和管理K8S集群,支持容器应用的自动化部署、容器镜像管理、服务目录管理、监控和弹性伸缩以及容器的持久化存储等功能。
目前,随着稳定性、易用性以及集成友好度的显著提升,OpenStack从测试环境到生产环境的转变速度越来越快,但大规模部署依然对OpenStack的管理及稳定运行带来挑战。浪潮InCloud OpenStack 5.5为了满足大规模数据中心交付能力,从两个维度对原生OpenStack产品进行了优化。一方面,采用多Region方式实现大集群的分而治之,所有的Region使用一套Keystone系统,解决因集群规模扩大而带来keystone系统瓶颈,从独立部署Keystone和Token认证两个维度进行优化;另一方面,为了增加单Region的集群规模,采用分离方案对数据库、消息通信机制进行优化,使得单集群规模大于1000+节点。
InCloud OpenStack 两地三中心方案可对外提供同城150KM双中心双活,异地数据中心主备的容灾能力;方案采用浪潮自研的网络设备、集中式存储设备和云管理平台可以从数据、网络、业务层面稳定高效的保证客户业务连续性。该方案可以有效的帮助客户节约成本、提高业务高可靠、采用可视化一键式故障切换方案实现高效故障管理等能力。
目前,基于InCloud OpenStack 5.5的“两地三中心”云数据中心解决方案已成功交付,帮助客户构建起单集群超过1000节点、总规模达1400+节点的全球领先云基础设施。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。