日前,国际权威标准性能评估组织SPEC发布了最新的SPECvirt_sc2013性能测试结果,浪潮云海虚拟化InCloud Sphere刷新Intel两路服务器上虚拟化软件性能测试成绩,以4679分打破了已尘封四年之久的世界纪录,成绩霸榜全球第一,较之前的测试最高分提升了39%。

SPEC是由全球几十所知名大学、研究机构、IT企业组成的第三方测试组织,拥有SPEC CPU、SPEC Power、SPEC Cloud、SPEC ML等多项公开的标准化测试规范和模型。
多年来,SPEC测试完全模拟现实使用需求,讲求参测系统整体上的性能和在实际应用中的表现,被金融、电信、证券等关键行业用户作为选择IT系统的权威选型指标之一,测试成绩排名得到了全球企业级客户的高度认可和广泛支持。

SPECvirt_sc2013作为SPEC推出用于评估云数据中心虚拟化性能的标准测试工具,参与厂商众多,包含了几乎所有服务器生产厂商,其测试集合包括数据库、中间件、邮箱、Web Server等多种类型的虚拟机。简单来说,在保证服务质量(QoS)的前提下,于一台服务器上能够部署的虚拟机数量越多,则SPECvirt性能总得分就越高。
本次测试中,浪潮云海虚拟化系统InCloud Sphere实现了在一台NF5280M6服务器上有效运行263台高压力虚拟机,创造了新的虚拟机密度记录。InCloud Sphere之所以能够取得霸榜第一的优势成绩,主要还是归功于以下两个层面的创新:
「攻坚轻量级Hypervisor,高效降低虚拟化资源损耗」众所周知,提高服务器上虚拟机密度的关键因素在于让虚拟化系统将尽可能多的CPU、内存、存储I/O和网络带宽资源留给虚拟机使用,也就是尽可能减少虚拟化本身对资源的损耗。 经过多年的持续优化,InCloud Sphere的Hypervisor层组件在保持稳定可靠的基础上做到代码持续精简,资源损耗显著下降;同时为充分利用新型硬件设备,例如浪潮自研NVMe SSD提供的高性能存储,InCloud Sphere在I/O栈进行了全方位的性能优化,简化了从虚拟磁盘到物理磁盘的数据传输通道,收效显著。
「实现资源精细管理,避免因资源不足而宕机」通常在同一台服务器上同时运行数百台高压力虚拟机,如果物理资源分配不均衡,就会带来虚拟机间无序争夺抢占资源的情况,这极有可能导致某些虚拟机因获得资源不足而宕机。这种状况不仅存在于SPECvirt性能测试中,更是普遍发生于用户的真实生产环境中,十分影响业务稳定性。
为解决此问题,浪潮云海InCloud Sphere开发了资源精细管理模型,将CPU、内存、磁盘I/O、网络带宽等资源进行了细粒度的划分,即根据优先级和历史实际资源占用情况对每台虚拟机进行智能化、精细化、强隔离的资源供给,获得系统总体性能和单台虚拟机资源保障的最优解。
一直以来,InCloud Sphere作为浪潮自主研发、基于 KVM 深度定制的计算虚拟化软件,具备支持资源预留、热添加、GPU 直通、vGPU、USB Over IP、 DRS、裸机管理、独立副本等多种高级特性。
其中内置的自研企业级分布式存储系统InCloud Storage,可针对超融合场景进行大量软硬件调优和稳定性测试,兼顾多种容错和故障冗余机制,做到全面保障用户数据高效与安全存储。
此外,早在今年IPF期间震撼发布的自研SDN模块InCloud SmartFlow,支持网络子网划分、隔离、sFlow、端口镜像、DHCP防护等功能,搭配智能网卡实现SDN控制器的转发卸载,节约CPU资源的同时大幅度提高转发速率,更加支持与浪潮、第三方SDN硬件设备的对接与联动。
重要的一点,浪潮云海InCloud Sphere稳定性和高性能已经经过多行业多场景的实践检验,充分满足企业 、制造业、能源、交通、医疗、金融、电信等行业的业务实践需求。未来定将围绕智算操作系统核心引擎的产品定位,持续打造虚拟化硬核技术实力,推动企业数字化、智能化转型。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。