Pure Storage 丰富的产品组合涵盖高性能、大容量、高性价比的产品,且始终保持现代化
2023年8月8日,中国——专为多云环境提供先进数据存储技术及服务的全球IT先锋Pure Storage® (NYSE: PSTG) 今日宣布其已实现一项愿景目标,即率先成为业界首家以全闪存解决方案满足客户全部存储需求的技术提供商。目前只有 Pure Storage 可以真正做到这一点,这主要归功于其在原生闪存管理、Purity架构、Evergreen®支持架构和云运营模式方面的独到之处。
Pure Storage董事长兼首席执行官 Charlie Giancarlo 表示:“我们倾力打造的业内最优秀的产品线,兼具出众的稳定性、先进性和可靠性,全面满足所有的企业级存储需求。迈入人工智能新时代,与硬盘和固态硬盘相比,Pure全闪存产品线在性价比、运行性能和环保方面展现出卓越优势,这对我们的客户来说比以往任何时候都更加重要。”
Pure Storage 中国区销售总监朱星勃表示:“这些最新的发布将对我们的中国客户和合作伙伴产生深刻影响。目前,构建全闪存数据中心从经济角度来说已非常可行,且考虑到对环境的影响和总体拥有成本,这也是顺理成章的选择。IDC最新发布的《2023年第一季度全球企业存储系统季度跟踪报告》显示,Pure在中国市场的增长率高达57.6%,远超3.4%的市场整体增长率,这充分证明我们有能力满足客户对创新和可持续技术解决方案的需求,并将继续保持良好的发展势头。”
对于Pure Storage全球11,500多家覆盖全行业和各种工作负载类型的客户而言,Pure已证明其能够:
之所以能够实现上述成果以满足各种存储需求,是因为Pure Storage具有诸多与众不同且可持续的差异化优势:
全新解决方案:
FlashArray//E:
FlashArray//E为存储各类文件和块数据提供了闪存的简易性和高效率,让客户终于可以淘汰其数据中心中的最后一批磁盘。产品优势体现在:
新一代FlashArray//X和FlashArray//C:
与前几代产品相比,最新一代FlashArray//X和FlashArray//C R4取得了重大突破。客户将可以享受如下优势:
人工智能的首选存储合作伙伴
生成式人工智能掀起了新一轮人工智能的浪潮,今日发布的创新将进一步巩固Pure Storage作为人工智能项目首选存储合作伙伴的领导地位。Pure Storage为前沿人工智能项目提供支持,例如自动驾驶汽车研发公司,以及全球最大的人工智能超级计算机Meta AI的研究超级集群 (AI RSC) 等。在Pure的支持下,客户可从任何规模开启其人工智能之旅,并随需求变化而扩展。
Pure Storage早在多年前就预见了对人工智能的需求,并推出了FlashBlade® 以及与NVIDIA联合开发的AIRI® (AI就绪的基础设施)解决方案。AIRI//S™是Pure Storage和NVIDIA联合开发的一款面向人工智能的NVIDIA DGX BasePOD参考架构,包括最新的FlashBlade//S™存储。Pure Storage的FlashBlade硬件产品组合支持GPU Direct Storage (GDS),近期也将推出可提供完整GDS支持的软件增强功能,从而进一步深化Pure Storage和NVIDIA的合作,并优化DGX BasePOD认证解决方案。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。