从“上云”向“云原生”演进已经成为数字化转型的必经之路,云原生已经成为“十四五”期间构建以云计算为核心的数字基础设施不可或缺的支撑技术。IDC预测90%的新应用将使用云原生应用程序开发流程、敏捷方法论和API驱动架构。在与日俱增的全球650万云原生开发者推动下,云原生开始在全行业遍地开花。
日前,在IIF 2022金融创新云论坛上,浪潮云海重磅发布InCloud Stack云原生一体机,面向各行业有软件研发诉求或有分布式业务架构改造和部署诉求的用户,基于浪潮在云原生领域的深度技术积累和强大的硬件研发实力,实现云原生平台开箱即用、业务便捷上云,成为企业用户加速数字化转型的新基座。
蓄势而发 应时而生
算力多元化改造与算网协同加速已是大势所趋,在浪潮云海InCloud Stack云原生一体机媒体沟通会上,浪潮数据云计算方案总监刘健深入浅出的解读行业趋势并阐述了浪潮云海“双擎驱动·持续演进”能力。刘健表示:“业务迁移上云将与云原生长期并存,用户将经历基础设施的云化,业务云化,业务创新三个阶段。”
中国农业发展银行信息科技部副总经理兼运维中心总经理苟飞
与浪潮数据云计算方案总监刘健共话金融云创新
时下上云需求和云原生需求并存,兼具敏态与稳态特性“新一代云原生底座”浪潮云海InCloud Stack云原生一体机应运而生。浪潮数据云计算产品线副总经理龙定矣表示:“无论是满足企业不断增长的数字化转型新需求还是提升传统业务更高性能和稳定性,用户需要在创新的同时找到技术平衡点,实现稳态业务和敏态业务的融合共生。”
浪潮数据云计算产品线副总经理龙定矣发布浪潮云海InCloud Stack云原生一体机
智简不凡,应云而生
最新发布的浪潮云海InCloud Stack云原生一体机基于浪潮M6系列高效能服务器平台,搭配通过轻量化优化后的浪潮云海OS云原生平台,融合了容器云底座、分布式存储和软件定义网络特性,支持包括x86、ARM和MIPS等多种CPU架构部署在同一集群内,实现多云算力的统一管理、融合调度。
面向敏捷化业务交付场景,开箱即用的浪潮云海InCloud Stack云原生一体机只需3节点起即可构建一套满足用户业务分布式部署需求,单集群可扩展规模达到2000节点;通过代码级的深度的整合,自研SSD智能网卡的配件优化,单节点可支持超过600+容器密度;CPU的整体的资源损耗接近于零损耗;同时IO的时延小于0.1毫秒;整合20+社区生态合作伙伴的DevOps开发组件,帮助用户实现应用全生命周期端到端的管理。
面向Devops开发场景,通过提炼最佳的实践方案,将传统IT生产过程转变为标准化、自动化、可视化的流水线式管理。平台预置丰富的流水线模板,可支持Java、Python、GO等多种语言的构建。灵活的扩展能力以及图形化配置,可满足用户各种差异化开发场景需求,极大提升产品和服务交付的质量与效率。
面向AI计算场景,支持多种加速设备(GPU、FPGA等),可以满足客户在模型训练、推理等AI场景需求。并提供多容器共享的调度策略,相较传统方案性能提升3倍以上,可大幅度降低AI计算成本。
为关键用户承载关键业务
在2021年,浪潮云海云原生平台通过部署原生集群,承载了央行清算中心关键信息化运营平台的微服务化改造,使其业务上线、容灾切换、版本升级效率是传统的虚拟化架构的10倍以上。搭配云管平台,构建了央行清算中心北京+上海的两大数据中心的调度和管理。
开放、融合、敏捷、智能是浪潮云海产品迭代升级、技术持续创新的方向,浪潮云海InCloud Stack云原生一体机将面向全行业用户的云原生应用场景提供高可靠、高可用的数字基座。
一直以来,浪潮云海OS通过在架构优化、权威基准测试、规模化应用、社区贡献、生态完善等方面的持续创新,持续推动OpenStack、kubernetes等开源技术在中国及世界范围的发展,同时为各行各业提供数字转型、智能升级、融合创新的云基础设施,为打造创新技术引擎不懈努力。基础设施。同时持续推动OpenStack、kubernetes等开源技术在中国及世界范围的发展,为打造创新技术引擎不懈努力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。