现在越来越多的企业上云、用云,我们距离云原生有多远呢?
在云计算诞生之前,应用的创建、运行、升级、维护都是比较痛苦的事情,因为应用与底层IT资源之间是紧密相连的。而在云的模式下,满足弹性所需的云计算替代了传统IT,并带来了云原生的理念。
因为现在有很多的机会让我们接触到公有云或是私有云,那我们对于应用的管理方式是不是也应该有一种当下的方式,我们就称其为云原生的方式。
云原生的本质,就是让应用距离云更近。云和本地是相对的,传统应用必须运行在本地服务器上,现在主流的应用都跑在云端,充分利用云资源的优点,比如云服务的弹性和分布式优势。
云原生并不是把原先在物理服务器上的业务应用直接迁移到云上,因为真正的云化不仅是基础设施和平台的事情,应用也要做出改变,改变传统,实现云化的应用。
特别是基础设施层面的创新非常重要,就拿云服务器来说,为了适配云原生技术就需要与时俱进不断进化。
云原生包含微服务、DevOps、可持续交付、容器化等四个要素,这些要求云服务器具备坚实的支撑能力,比如性能、灵活性等,满足云端应用的需求。
近日,青云QingCloud新一代企业级云服务器e3正式发布,基于e3自身优秀的计算性能、弹性伸缩和分布式存储等特点,可轻松满足企业面向云原生技术落地,高效开发云原生构架应用的进阶需求,提升应用开发效率。
场景与技术驱动云服务器进化
如今,云上“经济”模式呈爆发式增长,越来越多的企业通过云服务商提供的云上计算、网络、存储、安全、数据服务等资源,降本增效,驱动业务创新。
在这一过程中,我们看到云服务器在其中起到了至关重要的角色。这是因为云从最开始提供的是IaaS服务,而随着各种智能化应用的兴起,云服务器也成为了从IaaS到智能化应用连接的关键环节。
越来越多的行业对云服务的关注点逐步从资源层上移到应用层,这就对云服务器的能力提出了更高的要求。
例如,企业云上业务类型越来越多样化,基于云端的创新应用要求云服务器在性能方面和弹性伸缩方面依托分布式架构满足云原生应用需求。
同时,人工智能技术融入到云端应用,这就要求云服务器能够提供GPU资源池化,满足AI类应用的算力需求;5G、智能终端等驱动边缘计算发展,这就对云服务器的网络吞吐性能有了更高的要求,以承载NFV、SD-WAN等网络密集型应用。
在这种情况下,如果我们再用旧有的眼光来看云服务器,肯定是行不通的,我们需要从场景与技术两个维度来选择云服务器,也就是说云服务器自身的进化已经“时不我待”。
e3云服务器的迭代升级之道
基于对企业业务场景和技术潮流的思考,青云QingCloud e3云服务器在计算性能、网络和存储能力上进行了升级,匹配Web服务器、高性能数据库以及各类企业级计算密集型应用开发测试等场景。
在计算层面,e3云服务器搭载了最新的第三代英特尔®至强®可扩展处理器,实现了更高性能和更低功耗,不仅提升了复杂业务承载、处理能力,帮助企业应对瞬时高爆发海量数据处理需求,能够有效保障企业应用的稳定性和反馈及时性,支撑核心关键业务上云,也对大数据应用和AI等场景需求表现出极高的性能优势。
在存储层面,e3云服务器采用了RDMA技术,搭载即将上线的增强型SSD云硬盘,实现单盘最高可达100k IOPS。其次,e3云服务器数据吞吐量大幅提升,达到750MB/s,写延迟低于50μs。在数据库、日志分析等场景下,可为用户提供海量数据的即时处理能力,以及更加可靠的数据传输通道。
在网络层面,网络增强型e3云服务器搭载了50Gbps网卡,最大内网带宽可达32Gbps,网络转发率可达20M PPS,网络延时低至50μs,并支持RDMA和DPDK功能,适配HPC、AI、NFV和SD-WAN等应用。
撇开应用场景谈配置和性能都是耍流氓。e3云服务器这些升级都是针对业务场景的量身定制。例如在物联网场景大量传感器数据(如烟雾、湿度、温度等)需要存储到数据库中,e3利用低存储延时优势和IOPS的升级特性,为智慧城市解决方案供应商提供海量数据的即时处理能力。
而在MySQL等数据库场景和Redis等缓存场景应用中,e3云服务器比市面主流云服务器的网络和储存延时更低,可以更好地帮助企业开发云原生应用,例如加速互联网点餐高峰阶段的订单处理、实现大批量的实时物流跟踪系统等。
此外,青云科技一直在推动云资源的价格下调,降低企业的用云成本。e3云服务器也具备较高性价比。
结语
企业数字化转型逐渐深入,应用上云需求持续增加,特别是在云原生技术驱动下,企业对于云服务器的要求也越来越高。而e3云服务器在算力和网络、存储性能等方面不断进化,更好地与企业应用场景进行融合,为企业云上创新提供了坚实的“底座”。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。