日前,国际权威标准性能评估组织SPEC发布了最新的SPECvirt_sc2013性能测试结果,浪潮云海虚拟化InCloud Sphere刷新Intel两路服务器上虚拟化软件性能测试成绩,以4679分打破了已尘封四年之久的世界纪录,成绩霸榜全球第一,较之前的测试最高分提升了39%。
SPEC是由全球几十所知名大学、研究机构、IT企业组成的第三方测试组织,拥有SPEC CPU、SPEC Power、SPEC Cloud、SPEC ML等多项公开的标准化测试规范和模型。
多年来,SPEC测试完全模拟现实使用需求,讲求参测系统整体上的性能和在实际应用中的表现,被金融、电信、证券等关键行业用户作为选择IT系统的权威选型指标之一,测试成绩排名得到了全球企业级客户的高度认可和广泛支持。
SPECvirt_sc2013作为SPEC推出用于评估云数据中心虚拟化性能的标准测试工具,参与厂商众多,包含了几乎所有服务器生产厂商,其测试集合包括数据库、中间件、邮箱、Web Server等多种类型的虚拟机。简单来说,在保证服务质量(QoS)的前提下,于一台服务器上能够部署的虚拟机数量越多,则SPECvirt性能总得分就越高。
本次测试中,浪潮云海虚拟化系统InCloud Sphere实现了在一台NF5280M6服务器上有效运行263台高压力虚拟机,创造了新的虚拟机密度记录。InCloud Sphere之所以能够取得霸榜第一的优势成绩,主要还是归功于以下两个层面的创新:
「攻坚轻量级Hypervisor,高效降低虚拟化资源损耗」众所周知,提高服务器上虚拟机密度的关键因素在于让虚拟化系统将尽可能多的CPU、内存、存储I/O和网络带宽资源留给虚拟机使用,也就是尽可能减少虚拟化本身对资源的损耗。 经过多年的持续优化,InCloud Sphere的Hypervisor层组件在保持稳定可靠的基础上做到代码持续精简,资源损耗显著下降;同时为充分利用新型硬件设备,例如浪潮自研NVMe SSD提供的高性能存储,InCloud Sphere在I/O栈进行了全方位的性能优化,简化了从虚拟磁盘到物理磁盘的数据传输通道,收效显著。
「实现资源精细管理,避免因资源不足而宕机」通常在同一台服务器上同时运行数百台高压力虚拟机,如果物理资源分配不均衡,就会带来虚拟机间无序争夺抢占资源的情况,这极有可能导致某些虚拟机因获得资源不足而宕机。这种状况不仅存在于SPECvirt性能测试中,更是普遍发生于用户的真实生产环境中,十分影响业务稳定性。
为解决此问题,浪潮云海InCloud Sphere开发了资源精细管理模型,将CPU、内存、磁盘I/O、网络带宽等资源进行了细粒度的划分,即根据优先级和历史实际资源占用情况对每台虚拟机进行智能化、精细化、强隔离的资源供给,获得系统总体性能和单台虚拟机资源保障的最优解。
一直以来,InCloud Sphere作为浪潮自主研发、基于 KVM 深度定制的计算虚拟化软件,具备支持资源预留、热添加、GPU 直通、vGPU、USB Over IP、 DRS、裸机管理、独立副本等多种高级特性。
其中内置的自研企业级分布式存储系统InCloud Storage,可针对超融合场景进行大量软硬件调优和稳定性测试,兼顾多种容错和故障冗余机制,做到全面保障用户数据高效与安全存储。
此外,早在今年IPF期间震撼发布的自研SDN模块InCloud SmartFlow,支持网络子网划分、隔离、sFlow、端口镜像、DHCP防护等功能,搭配智能网卡实现SDN控制器的转发卸载,节约CPU资源的同时大幅度提高转发速率,更加支持与浪潮、第三方SDN硬件设备的对接与联动。
重要的一点,浪潮云海InCloud Sphere稳定性和高性能已经经过多行业多场景的实践检验,充分满足企业 、制造业、能源、交通、医疗、金融、电信等行业的业务实践需求。未来定将围绕智算操作系统核心引擎的产品定位,持续打造虚拟化硬核技术实力,推动企业数字化、智能化转型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。