日前,存储性能委员会(Storage Performance Council,简称SPC)公布了最新的SPC-1基准评测报告,浪潮存储AS2200G2的评测值为.77/KIOPS,即一千美金可以购买到13198 个IOPS的性能,刷新了SPC-1单位成本性能榜单全球最优成绩。这是继今年浪潮存储在“性能”赛道打破16控和8控性能记录之后,在“单位成本性能”榜单再次突破,夺得本年度第三个世界冠军。
在SPC-1国际测试中,浪潮存储位居单位成本性能全球第一
登顶SPC-1榜单 以“极致”单位成本性能刷新用户体验
存储性能委员会(Storage Performance Council),成立于1999年,是存储业界最知名的专业评测机构。旗下的SPC-1基准评测是业内最活跃的性能评测,不仅能够评估存储系统处理复杂请求和大规模数据的能力,还能够对存储系统的经济性进行科学的考量。SPC-1由于评测标准公正、客观,吸引了Dell、Fujitsu、HPE、HDS、IBM、NetApp、Oracle、浪潮等全球数十家存储厂商参与,其评测结果也成为企业存储选型的风向标。
本次SPC-1评测中,浪潮、TTA、Fujitsu、联想、华云网际、NetApp等6家全球主流存储厂商的10款产品入选了单位成本性能TOP10榜单,其中浪潮存储AS2200G2以.77/KIOPS的评测值排名全球第一。至此,浪潮存储在本年度累计完成3次SPC-1测试刷榜,成为唯一一家在性能和单位成本性能两大榜单领跑的厂商。
“浪潮存储登顶SPC-1单位成本性能榜单,说明浪潮存储在性能普惠方面做到了极致。别看多了‘极致’两个字,含义大不相同。性能高的存储产品只是达到了用户的基本要求,但能将单位成本性能做到极致的存储产品能带给用户惊喜和愉悦,甚至能够加速存储产业的进程”,浪潮存储产品线总经理李辉表示。如今企业的海量数据中只有不到10%的数据被真正分析、处理过,企业面临海量数据分析、处理挑战的同时,对数据经济性的需求也快速增加,单位成本性能成为衡量存储产品市场竞争力一把标尺。
单位成本性能全球第一背后 浪潮存储的硬核实力
浪潮存储登顶SPC-1单位成本性能榜单,说明浪潮存储不仅是同等级产品中性能最优的,也是在企业投入相同资金的情况下能让用户收益最大的,能够以更低的价格和更优的性能帮助企业节省购买成本。浪潮存储的性能评测值为37万IOPS,比第二名、第三名分别高19%和32%,浪潮存储每KIOPS的价格约为.77,比第二名、第三名价格低12%和18%,成为企业海量、实时数据处理的首选。
在“鱼和熊掌不可兼得”的市场里,浪潮存储通过软硬件层面的一系列创新,描绘了“存储性能向上攀升,成本却向下延伸”的两条不可思议的曲线。本次参加评测的浪潮存储AS2200G2在硬件层面采用盘控一体的紧凑设计,前端每控搭载一颗英特尔至强CPU、64GB大缓存,后端采用25块SSD盘的全闪存配置,大幅提升数据响应速度;在软件层面,浪潮存储通过iTurbo智能引擎高端技术下移,能够让存储系统根据前端应用自动匹配不同数据处理策略,驱动数十万IO指令和数据块在存储系统内高速传输和流动。通过软硬双管齐下的优化,浪潮存储在同等的产品配置下,性能达到了业界最高水平。
随着新基建政策商用落地,大数据、边缘计算、IoT等新技术带动了用户对海量数据实时处理的需求,用户对高性能、普惠的存储设备的市场需求日益增长。浪潮存储基于“云存智用 运筹新数据”的理念,凭借“单位成本性能全球第一”的强大产品竞争力在这一市场乘风破浪,加速企业数字化转型。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。