现在越来越多的企业上云、用云,我们距离云原生有多远呢?
在云计算诞生之前,应用的创建、运行、升级、维护都是比较痛苦的事情,因为应用与底层IT资源之间是紧密相连的。而在云的模式下,满足弹性所需的云计算替代了传统IT,并带来了云原生的理念。
因为现在有很多的机会让我们接触到公有云或是私有云,那我们对于应用的管理方式是不是也应该有一种当下的方式,我们就称其为云原生的方式。
云原生的本质,就是让应用距离云更近。云和本地是相对的,传统应用必须运行在本地服务器上,现在主流的应用都跑在云端,充分利用云资源的优点,比如云服务的弹性和分布式优势。
云原生并不是把原先在物理服务器上的业务应用直接迁移到云上,因为真正的云化不仅是基础设施和平台的事情,应用也要做出改变,改变传统,实现云化的应用。
特别是基础设施层面的创新非常重要,就拿云服务器来说,为了适配云原生技术就需要与时俱进不断进化。
云原生包含微服务、DevOps、可持续交付、容器化等四个要素,这些要求云服务器具备坚实的支撑能力,比如性能、灵活性等,满足云端应用的需求。
近日,青云QingCloud新一代企业级云服务器e3正式发布,基于e3自身优秀的计算性能、弹性伸缩和分布式存储等特点,可轻松满足企业面向云原生技术落地,高效开发云原生构架应用的进阶需求,提升应用开发效率。
场景与技术驱动云服务器进化
如今,云上“经济”模式呈爆发式增长,越来越多的企业通过云服务商提供的云上计算、网络、存储、安全、数据服务等资源,降本增效,驱动业务创新。
在这一过程中,我们看到云服务器在其中起到了至关重要的角色。这是因为云从最开始提供的是IaaS服务,而随着各种智能化应用的兴起,云服务器也成为了从IaaS到智能化应用连接的关键环节。
越来越多的行业对云服务的关注点逐步从资源层上移到应用层,这就对云服务器的能力提出了更高的要求。
例如,企业云上业务类型越来越多样化,基于云端的创新应用要求云服务器在性能方面和弹性伸缩方面依托分布式架构满足云原生应用需求。
同时,人工智能技术融入到云端应用,这就要求云服务器能够提供GPU资源池化,满足AI类应用的算力需求;5G、智能终端等驱动边缘计算发展,这就对云服务器的网络吞吐性能有了更高的要求,以承载NFV、SD-WAN等网络密集型应用。
在这种情况下,如果我们再用旧有的眼光来看云服务器,肯定是行不通的,我们需要从场景与技术两个维度来选择云服务器,也就是说云服务器自身的进化已经“时不我待”。
e3云服务器的迭代升级之道
基于对企业业务场景和技术潮流的思考,青云QingCloud e3云服务器在计算性能、网络和存储能力上进行了升级,匹配Web服务器、高性能数据库以及各类企业级计算密集型应用开发测试等场景。
在计算层面,e3云服务器搭载了最新的第三代英特尔®至强®可扩展处理器,实现了更高性能和更低功耗,不仅提升了复杂业务承载、处理能力,帮助企业应对瞬时高爆发海量数据处理需求,能够有效保障企业应用的稳定性和反馈及时性,支撑核心关键业务上云,也对大数据应用和AI等场景需求表现出极高的性能优势。
在存储层面,e3云服务器采用了RDMA技术,搭载即将上线的增强型SSD云硬盘,实现单盘最高可达100k IOPS。其次,e3云服务器数据吞吐量大幅提升,达到750MB/s,写延迟低于50μs。在数据库、日志分析等场景下,可为用户提供海量数据的即时处理能力,以及更加可靠的数据传输通道。
在网络层面,网络增强型e3云服务器搭载了50Gbps网卡,最大内网带宽可达32Gbps,网络转发率可达20M PPS,网络延时低至50μs,并支持RDMA和DPDK功能,适配HPC、AI、NFV和SD-WAN等应用。
撇开应用场景谈配置和性能都是耍流氓。e3云服务器这些升级都是针对业务场景的量身定制。例如在物联网场景大量传感器数据(如烟雾、湿度、温度等)需要存储到数据库中,e3利用低存储延时优势和IOPS的升级特性,为智慧城市解决方案供应商提供海量数据的即时处理能力。
而在MySQL等数据库场景和Redis等缓存场景应用中,e3云服务器比市面主流云服务器的网络和储存延时更低,可以更好地帮助企业开发云原生应用,例如加速互联网点餐高峰阶段的订单处理、实现大批量的实时物流跟踪系统等。
此外,青云科技一直在推动云资源的价格下调,降低企业的用云成本。e3云服务器也具备较高性价比。
结语
企业数字化转型逐渐深入,应用上云需求持续增加,特别是在云原生技术驱动下,企业对于云服务器的要求也越来越高。而e3云服务器在算力和网络、存储性能等方面不断进化,更好地与企业应用场景进行融合,为企业云上创新提供了坚实的“底座”。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。