从“上云”向“云原生”演进已经成为数字化转型的必经之路,云原生已经成为“十四五”期间构建以云计算为核心的数字基础设施不可或缺的支撑技术。IDC预测90%的新应用将使用云原生应用程序开发流程、敏捷方法论和API驱动架构。在与日俱增的全球650万云原生开发者推动下,云原生开始在全行业遍地开花。
日前,在IIF 2022金融创新云论坛上,浪潮云海重磅发布InCloud Stack云原生一体机,面向各行业有软件研发诉求或有分布式业务架构改造和部署诉求的用户,基于浪潮在云原生领域的深度技术积累和强大的硬件研发实力,实现云原生平台开箱即用、业务便捷上云,成为企业用户加速数字化转型的新基座。
蓄势而发 应时而生
算力多元化改造与算网协同加速已是大势所趋,在浪潮云海InCloud Stack云原生一体机媒体沟通会上,浪潮数据云计算方案总监刘健深入浅出的解读行业趋势并阐述了浪潮云海“双擎驱动·持续演进”能力。刘健表示:“业务迁移上云将与云原生长期并存,用户将经历基础设施的云化,业务云化,业务创新三个阶段。”
中国农业发展银行信息科技部副总经理兼运维中心总经理苟飞
与浪潮数据云计算方案总监刘健共话金融云创新
时下上云需求和云原生需求并存,兼具敏态与稳态特性“新一代云原生底座”浪潮云海InCloud Stack云原生一体机应运而生。浪潮数据云计算产品线副总经理龙定矣表示:“无论是满足企业不断增长的数字化转型新需求还是提升传统业务更高性能和稳定性,用户需要在创新的同时找到技术平衡点,实现稳态业务和敏态业务的融合共生。”
浪潮数据云计算产品线副总经理龙定矣发布浪潮云海InCloud Stack云原生一体机
智简不凡,应云而生
最新发布的浪潮云海InCloud Stack云原生一体机基于浪潮M6系列高效能服务器平台,搭配通过轻量化优化后的浪潮云海OS云原生平台,融合了容器云底座、分布式存储和软件定义网络特性,支持包括x86、ARM和MIPS等多种CPU架构部署在同一集群内,实现多云算力的统一管理、融合调度。
面向敏捷化业务交付场景,开箱即用的浪潮云海InCloud Stack云原生一体机只需3节点起即可构建一套满足用户业务分布式部署需求,单集群可扩展规模达到2000节点;通过代码级的深度的整合,自研SSD智能网卡的配件优化,单节点可支持超过600+容器密度;CPU的整体的资源损耗接近于零损耗;同时IO的时延小于0.1毫秒;整合20+社区生态合作伙伴的DevOps开发组件,帮助用户实现应用全生命周期端到端的管理。
面向Devops开发场景,通过提炼最佳的实践方案,将传统IT生产过程转变为标准化、自动化、可视化的流水线式管理。平台预置丰富的流水线模板,可支持Java、Python、GO等多种语言的构建。灵活的扩展能力以及图形化配置,可满足用户各种差异化开发场景需求,极大提升产品和服务交付的质量与效率。
面向AI计算场景,支持多种加速设备(GPU、FPGA等),可以满足客户在模型训练、推理等AI场景需求。并提供多容器共享的调度策略,相较传统方案性能提升3倍以上,可大幅度降低AI计算成本。
为关键用户承载关键业务
在2021年,浪潮云海云原生平台通过部署原生集群,承载了央行清算中心关键信息化运营平台的微服务化改造,使其业务上线、容灾切换、版本升级效率是传统的虚拟化架构的10倍以上。搭配云管平台,构建了央行清算中心北京+上海的两大数据中心的调度和管理。
开放、融合、敏捷、智能是浪潮云海产品迭代升级、技术持续创新的方向,浪潮云海InCloud Stack云原生一体机将面向全行业用户的云原生应用场景提供高可靠、高可用的数字基座。
一直以来,浪潮云海OS通过在架构优化、权威基准测试、规模化应用、社区贡献、生态完善等方面的持续创新,持续推动OpenStack、kubernetes等开源技术在中国及世界范围的发展,同时为各行各业提供数字转型、智能升级、融合创新的云基础设施,为打造创新技术引擎不懈努力。基础设施。同时持续推动OpenStack、kubernetes等开源技术在中国及世界范围的发展,为打造创新技术引擎不懈努力。
好文章,需要你的鼓励
Intermedia 推出业内首个将统一通信和客户体验功能完全嵌入微软 Teams 的服务。这项创新不仅提升了 Teams 用户的生产力,还改善了客户体验。新功能支持多渠道通信、企业级通话功能和 AI 分析,为企业提供了一个强大的通信和客户体验平台。
Komprise 推出了 AI 驱动的数据管道,可自动检测和保护个人隐私信息 (PII)。这项新功能旨在帮助企业防止 PII 和其他敏感数据泄露,应对非结构化数据增长和生成式 AI 带来的风险。通过系统化方法减少敏感数据风险,提升网络安全和 AI 数据治理能力。
Oumi PBC公司宣布推出全球首个"无条件开放的AI平台",旨在通过提供开放访问基础模型、数据集和开发工具,创建协作式AI研发生态系统。该平台支持从1000万到4050亿参数的模型训练,适用于文本和多模态模型,并集成了多种流行的推理引擎。Oumi致力于打破当前AI研究领域的创新壁垒,加速AI领域的进展和发现。
阿里云发布最新大语言模型 Qwen 2.5-Max,声称性能超越当前最强 AI 模型。该模型采用专家混合架构,经过 20 万亿 token 预训练和后续强化学习,在多项基准测试中超越 DeepSeek-V3 等模型。Qwen 2.5-Max 目前通过阿里云 API 提供服务,但尚未开源。