5G、人工智能、物联网、云计算技术快速升级,存储容量和性能需求也快速增长,全球数据量也进而呈现出爆炸式提升的状态。在海量应用场景下依靠单一的存储方式已经无法满足大规模非结构数据,如何在可控成本内高效、弹性地应对每一次数据洪峰的冲击,可靠的数据存储架构变得尤为关键。在诸多解决方案中,软件定义存储很快受到了欢迎。
软件定义存储是一种软硬件分离、利用软件对通用硬件进行管理的存储架构。对于虚拟化服务而言,用户端可以无视服务端具体由多少硬件、或是什么样的存储型号组成,也不限制服务端设备位于何处。这相当于智能家居的软件层面,用户只需要关注是否可以调节房间温度、灯光亮度,控制空调及灯具的遥控器放在哪里并不重要。
用户虽然可以自行选择运行存储服务的硬件,但实际上支持软件定义存储的硬件本身,也需要遵守一定规范,从而可以更好地帮助企业用户在虚拟化环境中部署固态硬盘资源,跳出传统物理存储设备布局的束缚。
让效率先行
提升软件定义存储性能也同样需要硬件支持,例如铠侠企业级PM7系列与数据中心级CD8系列所通过的VMware vSAN 8.0版本认证,可帮助企业基于实际应用中负载变化,动态地调整存储资源,自动维护各个虚拟机所需的存储容量、性能和可用性,并获得更高的I/O执行效率,提高整个虚拟化环境的性能以及可靠性。
同时这也并非铠侠第一次通过软件定义存储认证,作为NAND闪存技术发明者,铠侠一直积极推动存储技术发展,并积极适配用户的应用需求。在多年的应用和适配中,铠侠旗下已经有将近300款企业级和数据中心级SSD通过相关认证,可满足不同场景的虚拟化软件定义存储需求。
其中铠侠PM7系列是具备2.5英寸规格和支持SAS 4.0单、双端口设计的多功能型固态硬盘,具备优秀的兼容性、可靠性等诸多特点。相对上一代产品,铠侠PM7系列在随机读取性能提升幅度明显,并可提供高达30.72TB的容量点支持。
铠侠CD8系列是一款PCIe® 4.0 compliant并支持NVMe™ 1.4协议规范的产品,可提供高达7,200 MB/s顺序读取速度和1,250K IOPS随机读取速度。与此同时,CD8系列还提供读写混合型与读取密集型两个版本,其中读写混合型的CD8-V可提供3 DWPD耐久度和最高12.8TB容量,读取密集型CD8-R则可以提供1 DWPD耐久度和最高15.36TB容量。
对未来做足准备
在融合大数据、人工智能技术对数据存储性能提出更高要求的大环境下,优秀的存储性能变得愈发关键。软件定义存储能够进一步在自动驾驶、深度学习、人工智能加速、数字孪生、平台运营等诸多关键业务场景中,提供充足的发挥空间,同时对企业和数据中心的基础建设提出了更高要求。
铠侠同样也是积极推动具有前瞻性的EDSFF存储规范解决方案,,推出包括E1.S、E3.S规格在内的多款产品,并应对企业级和数据中心级客户针对PCIe® 5.0,推出CM7系列、CD8P系列等符合PCIe® 5.0 compliant的新一代产品。
在未来,铠侠将继续与合作伙伴们共同努力,为全球合作伙伴提供高效、可靠的存储解决方案,为AI加速、云计算、IoT等前沿领域提供高性能、多场景存储方案,助力客户进一步提升计算效率,抢占市场先机。
*容量的定义:铠侠定义1兆字节(MB)为1,000,000字节,1千兆字节(GB)为1,000,000,000字节,1兆兆字节(TB)为1,000,000,000,000字节。但是计算机操作系统记录存储容量时使用2的幂数进行表示,即定义1GB = 230 = 1,073,741,824字节,因此会出现存储容量变小的情况。可用存储容量(包括各种媒体文件的示例)将根据文件大小、格式、设置、软件和操作系统(例如Microsoft®操作系统和/或预安装的软件应用程序)或媒体内容而异。实际格式化的容量可能有所不同。
*1千位字节 (KiB) 指 210, 或1,024字节,1兆字节(MiB) 指 220,或1,048,576 字节,1千兆字节(GiB)指230, 或1,073,741,824字节。
*IOPS:每秒输入输出(或每秒I/O操作数)
*读写速度可能因主机设备、读写条件和文件大小的不同而不同。
*信息随时可能更改:虽然铠侠在发布时已努力确保此处提供信息的准确性,但产品规格、配置、价格、系统/组件/选项等的可用性都可能发生更改,恕不另行通知。
*产品图像可以代表设计模型。图像仅用于说明目的。产品外观可能与实际产品不同。闪存组件的实际数量因硬盘容量而不同。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。