近日,Gartner发布2023Q4全球外部存储市场报告。数据显示,2023年全球外部存储市场(ECB)销售额为21043.3M$,同比下降8.7%,装机容量达到55868PB,同比下降3.4%。浪潮信息存储产品装机容量达到6364PB,实现了逆势增长,占全球整体市场的11.4%,份额同比上升0.5%,连续三年(2021-2023)稳居全球前三。
2023年底,随着全球经济的逐步复苏,企业在存储领域的投资战略变得更加积极,全球和中国的外部存储市场的降幅显著收窄。同时,生成式人工智能(GenAI)负载的快速部署,促使企业正在增加面向AI场景的存储支出。浪潮信息凭借领先的技术与雄厚的产品实力,在企业级存储市场相对低迷的大环境下持续增长,并有望在新一代全闪与高端存储领域获得更大的市场优势。
经济复苏与GenAI技术革新驱动存储市场降幅收窄 存储容量需求大增
在整体经济形势好转的驱动下,数据要素价值不断凸显,依托存储动能,充分发挥海量数据和丰富应用场景优势,促进数字技术与实体经济深度融合成为必然趋势,这推动了企业在存储领域支出的信心回暖。在技术与应用层面,GenAI 等创新技术应用对于海量多元数据的全生命周期管理能力提出更高要求,催生了用户对于大容量存储的投资。Gartner 预计,新的 GenAI 工作负载主导的 ECB 生产交易将推动全球对外部存储容量的需求增长,2023-2028年最终用户支出的复合年均增长率将达到11.6%,成为未来企业级存储市场复苏的主要 突破口。
除了存储容量的增长之外,全闪与高端存储的崛起也是重要趋势:Gartner 预计,随着四位存储单元 (QLC) 存储在耐用性、成本等方面的改善,基于QLC的全闪将会占据更大的市场份额。同时,随着大模型训练等应用的扩展,用户对于存储性能、稳定性、可靠性都有着更高的要求,这将驱动高端存储市场的持续增长。
浪潮信息存储逆势增长 装机容量稳居全球前三
Gartner 数据显示,浪潮信息存储产品2023年的装机容量达到6364PB,实现了同比逆势增长,占全球整体市场的11.4%,份额同比上升0.5%。
浪潮信息在全球存储市场的逆势增长,其外部动因来自数字经济发展带来的中国存储市场向好发展趋势,给浪潮信息存储提供了广阔的市场空间。随着《“数据要素×”三年行动计划(2024—2026年)》等规划的落地,拓展数据要素的应用广度和深度,让数据要素价值得到充分释放已经上升为国家战略,而存储是有效地“存好”、“管好”、“用好”数据的关键前提。从内部动因来看,浪潮信息存储在持续进化的过程中,传承了敏捷进化基因,凭借深厚的技术积累和敏锐的市场洞察力,提出“新存储之道”,秉承“存储即平台”的产品理念,致力于通过创新的技术和解决方案,解决数据存储和管理的痛点问题,为数据的高效存储、流通和应用提供有力支撑和保障。
而随着数据要素拓展的加速,以及GenAI、大模型等技术的深化,越来越多的企业用户渴求极致的存储性能,这驱动着全闪存储、高端存储渗透率的不断提升,也成为浪潮信息实现逆势增长的重要动能。近年来,浪潮信息继承了数十年来对于高端技术、高端品质的专注与坚持,加大了在GenAI、全闪、高端存储等领域的投入力度,取得了巨大成就。
在GenAI方面,浪潮信息依托全栈能力,提供面向GenAI的全栈存储解决方案,可通过分布式融合存储,构筑全局统一存储资源池、数据及元数据均统一管理,不同协议共享共用,实现数据全局共享,以及多协议的统一元数据管理,大大提升GenAI应用中数据处理效率。高端存储方面,浪潮信息在协议互通、超大容量、全闪架构、AI融合等诸多方面进行技术创新,实现了极致可靠性、极致性能等方面的突破:支持全局资源共享,且具跨框共享和硬盘柜框级冗余等能力,实现极致可靠;构建了端到端的RoCE能力,实现了极致性能,在国际权威机构SPC(存储性能委员会)的SPC-1性能基准测试中,浪潮信息高端全闪存储HF18000以2300万IOPS夺得集中式存储榜单第一。
近年来,浪潮信息与来自金融、制造、互联网、交通等各行各业的客户展开紧密合作,面向多模态融合交互的场景化需求,携手伙伴打造“平台+生态”的场景共同体,依托领先的存储产品与方案,构建卓越的存储基础设施,确保数据安全、稳定、高效存储,并支撑先进数字化、智能化应用,持续推动存储技术与产品的迭代升级,助力千行百业加速形成新质生产力。
好文章,需要你的鼓励
这项研究介绍了一种名为FlowPathAgent的神经符号代理系统,用于解决流程图归因问题。研究团队提出了流程图精细归因这一新任务,构建了FlowExplainBench评估基准,并开发了结合视觉分割、符号图构建和基于代理的图形推理的方法。实验表明,该方法在归因准确性上比现有基线提高了10-14%,特别在处理复杂流程图时表现出色,为提升人工智能系统在处理结构化视觉-文本信息时的可靠性和可解释性提供了新途径。
这项研究首次从神经元层面揭示了大型语言模型(LLM)评估中的"数据污染"机制。研究团队发现当模型在训练中接触过测试数据时,会形成特定的"捷径神经元",使模型无需真正理解问题就能给出正确答案。他们提出了一种新方法,通过识别并抑制这些神经元(仅占模型总神经元的约1%),成功恢复了模型的真实能力表现。实验证明,该方法与权威可信基准测试结果高度一致(相关系数>0.95),并在不同基准和参数设置下都表现出色,为解决LLM评估可信度问题提供了低成本且有效的解决方案。
这份来自向量研究所、康奈尔大学和格罗宁根大学研究团队的综述分析了基于大语言模型的代理型多智能体系统中的信任、风险和安全管理框架(TRiSM)。研究系统地探讨了代理型AI从概念基础到安全挑战,提出了包含治理、可解释性、模型运营和隐私/安全四大支柱的TRiSM框架。文章还详细分析了威胁向量、风险分类,并通过真实案例研究展示了潜在脆弱性。
这项研究提出了一种名为ConfiG的创新方法,通过生成针对性的数据增强样本来解决知识蒸馏中的协变量偏移问题。研究团队利用教师模型和学生模型之间的预测差异,引导扩散模型生成那些能挑战学生模型的样本,从而减少模型对训练数据中欺骗性特征的依赖。实验表明,该方法在CelebA、SpuCo Birds和Spurious ImageNet数据集上显著提升了模型在缺失组别上的性能,为资源受限环境下的AI应用提供了实用解决方案。