戴尔科技于近期推出全新Dell PowerScale混合与归档节点——H710、H7100、A310及A3100,为企业构建高效数据湖与数据仓库,打造坚实的现代化战略提供关键支撑。同时,这些全新平台可与PowerScale全闪存系列优势互补,在实现总体拥有成本(TCO)优化的同时,提供灵活部署能力。戴尔科技的此次发布不仅是一次硬件层面的升级,更是对PowerScale这一拥有卓越灵活性与分层感知能力的横向扩展存储产品组合的有力拓展,进一步助力企业释放数据潜能,加速现代化转型。
数据并非“千篇一律”,训练集、日志文件、检查点与参考数据等各类数据,在性能和生命周期方面均有着各自独特的需求。Dell PowerScale提供多样化的存储选项,支持企业根据数据价值与需求,灵活构建数据中心架构,合理部署混合型、归档型或闪存存储,亦可组合应用多种存储形态。此外,戴尔科技拥有业界领先的广泛存储介质选项,覆盖具备卓越速度的闪存存储、注重成本效益的归档存储,以及融合二者优势的混合存储,可助力企业全面优化存储经济效益。
全新Dell PowerScale混合与归档系列节点登场,数据价值持续释放
借助戴尔科技新一代混合与归档平台,企业可无缝运行依赖或更适合采用基于机械硬盘(HDD-based)存储的各类工作负载,确保在应对真实业务场景中的现代化数据挑战时,能够实现更优的性能与效率。
Dell PowerScale混合与归档节点H710(左上)、H7100(左下)、A310(右上)及A3100(右下)
受现代化技术驱动,数据生成量正以前所未有的速度增长,这对可持续、高可靠的存储扩展能力提出了更高要求。Dell PowerScale全新平台(H710、H7100、A310及A3100)专为长期数据保留打造,具备企业级耐用性与PB级弹性。新一代平台采用如热辅助磁记录(HAMR)硬盘等前沿技术与更高容量的HDD(上述更新将于2025年下半年稍后推出),带来高达33%的容量提升¹,为如合规日志、模型检查点等冷、温数据提供安全、可访问且具成本效益的存储支持。在现代化技术飞速发展的时代,具备可扩展的基础架构对企业来说至关重要,而PowerScale正以卓越的可靠性与性能表现,充分满足这一关键需求。
依托丰富的Dell PowerScale产品组合,企业可将各类数据精准部署于最适宜的存储层级:高性能闪存存储满足实时分析需求,成本效益显著的HDD存储适用于长期数据保留,亦可灵活实现两者优势的平衡。智能分层机制还实现了数据在闪存、混合和归档环境之间的无缝迁移,有效消除数据孤岛与强制升级的困扰,在保障存储性能、可扩展性与简洁性的同时,助力企业优化总体拥有成本(TCO)。与仅提供闪存方案的竞品相比,PowerScale每GB成本可降低高达50%²,有效平衡性能与成本,真正实现基于数据价值的存储TCO优化。
除了用于冷存储,归档数据还常被调用于模型再训练、合规性检查或数据回滚等操作。全新PowerScale归档节点采用多项下一代技术,例如配备DDR5内存,搭载第四代英特尔至强处理器,并升级散热架构,性能相比前代产品提升高达56%³。此次的硬件升级不仅显著提升了运行速度,也确保了数据从归档状态到活跃状态迁移过程中的可靠性与运行效率。配合统一命名空间、原生调用、线内压缩与重复数据消除等功能,PowerScale始终为企业存储保驾护航,确保数据时刻都能释放更优价值。
依托业界领先的广泛存储介质组合,Dell PowerScale为企业构建覆盖各类工作负载?的高效存储解决方案,助力优化TCO。凭借策略驱动的灵活架构,PowerScale持续释放创新潜能,帮助企业在性能、容量与成本之间实现理想平衡,摆脱僵化模式与资源浪费,构筑更具弹性与可持续性的未来存储基石,全面释放数据价值。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。