Pure Storage 丰富的产品组合涵盖高性能、大容量、高性价比的产品,且始终保持现代化
2023年8月8日,中国——专为多云环境提供先进数据存储技术及服务的全球IT先锋Pure Storage® (NYSE: PSTG) 今日宣布其已实现一项愿景目标,即率先成为业界首家以全闪存解决方案满足客户全部存储需求的技术提供商。目前只有 Pure Storage 可以真正做到这一点,这主要归功于其在原生闪存管理、Purity架构、Evergreen®支持架构和云运营模式方面的独到之处。
Pure Storage董事长兼首席执行官 Charlie Giancarlo 表示:“我们倾力打造的业内最优秀的产品线,兼具出众的稳定性、先进性和可靠性,全面满足所有的企业级存储需求。迈入人工智能新时代,与硬盘和固态硬盘相比,Pure全闪存产品线在性价比、运行性能和环保方面展现出卓越优势,这对我们的客户来说比以往任何时候都更加重要。”
Pure Storage 中国区销售总监朱星勃表示:“这些最新的发布将对我们的中国客户和合作伙伴产生深刻影响。目前,构建全闪存数据中心从经济角度来说已非常可行,且考虑到对环境的影响和总体拥有成本,这也是顺理成章的选择。IDC最新发布的《2023年第一季度全球企业存储系统季度跟踪报告》显示,Pure在中国市场的增长率高达57.6%,远超3.4%的市场整体增长率,这充分证明我们有能力满足客户对创新和可持续技术解决方案的需求,并将继续保持良好的发展势头。”
对于Pure Storage全球11,500多家覆盖全行业和各种工作负载类型的客户而言,Pure已证明其能够:
之所以能够实现上述成果以满足各种存储需求,是因为Pure Storage具有诸多与众不同且可持续的差异化优势:
全新解决方案:
FlashArray//E:
FlashArray//E为存储各类文件和块数据提供了闪存的简易性和高效率,让客户终于可以淘汰其数据中心中的最后一批磁盘。产品优势体现在:
新一代FlashArray//X和FlashArray//C:
与前几代产品相比,最新一代FlashArray//X和FlashArray//C R4取得了重大突破。客户将可以享受如下优势:
人工智能的首选存储合作伙伴
生成式人工智能掀起了新一轮人工智能的浪潮,今日发布的创新将进一步巩固Pure Storage作为人工智能项目首选存储合作伙伴的领导地位。Pure Storage为前沿人工智能项目提供支持,例如自动驾驶汽车研发公司,以及全球最大的人工智能超级计算机Meta AI的研究超级集群 (AI RSC) 等。在Pure的支持下,客户可从任何规模开启其人工智能之旅,并随需求变化而扩展。
Pure Storage早在多年前就预见了对人工智能的需求,并推出了FlashBlade® 以及与NVIDIA联合开发的AIRI® (AI就绪的基础设施)解决方案。AIRI//S™是Pure Storage和NVIDIA联合开发的一款面向人工智能的NVIDIA DGX BasePOD参考架构,包括最新的FlashBlade//S™存储。Pure Storage的FlashBlade硬件产品组合支持GPU Direct Storage (GDS),近期也将推出可提供完整GDS支持的软件增强功能,从而进一步深化Pure Storage和NVIDIA的合作,并优化DGX BasePOD认证解决方案。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。