HPE近日宣布将简化Ezmeral数据分析产品组合,刷新用户界面,扩大提供开源工具的选择范围,集成对象和流数据源,并提高跨多个云的互操作性。
HPE表示,将通过提供独立于底层基础设施的完整数据和分析平台来解决数据孤岛的问题。增强的Ezmeral Data Fabric软件提供了跨混合云和多云部署的数据联合视图,以实现更直接的访问和治理,同时促进托管和精选开源工具的自助使用。
HPE表示,随着对文件、对象、表格和流的支持不断扩展,该软件套件可以跨多种数据源和格式以及公有云和私有云部署,现在还首次作为软件即服务产品提供给用户,具有自动策略管理功能,可让用户优化工作负载的部署。
开源承诺
Ezmeral Unified Analytics Software套件中包含了以即服务形式交付的各种开源工具(如图),包括Apache Airflow工作流管理平台、Apache Spark分析框架、Apache Superset可视化平台、Presto SQL分布式数据存储和Ray分布式计算框架。

用于AI应用训练和部署的Ezmeral,将支持机器学习Feast特征库、Kubernetes上的Kubeflow机器学习平台以及MLFlow机器学习管理平台。此外,HPE还引入了新的连接器和数据源,覆盖Snowflake的Data Cloud、MySQL、Databricks的DeltaLake、Teradata和Oracle的数据仓库。
HPE表示,该产品在设计上是混合的,可以跨边缘、托管、本地环境和公有云环境进行部署。与位置无关的部署还降低了数据传入和传出的费用。
意义重大
“这对我们来说是意义重大的,”HPE公司副总裁、Ezmeral Software总经理Mohan Rajagopalan这样表示。“我们将带着涉及数据和下一代工具的产品组合进入市场。过去,Ezmeral有十几款产品,现在已经简化为两款。”
Rajagopalan表示,这次公告突显了HPE通过托管服务支持开源项目的承诺,这些服务消除了客户应用补丁和升级的需要,同时使他们能够构建跨多个平台工作的应用。
他说:“我们不想制造分歧,我们希望鼓励真正的开源。我们负责更新和修补,但你可以自由地进行集成。”
支持的平台包括GreenLake,这是HPE的一系列硬件和软件产品,企业可以在类似云的即用即付消费基础上购买这些产品。
Rajagopalan表示:“我们有许多客户仍处于所谓的气隙环境中,我们已经与GreenLake进行了集成,通过SaaS交付模式向他们交付。”
他说,在支持任何格式数据这一更宏达更长期的战略之下,HPE扩大了对对象和流的支持。此外,HPE计划在Ezmeral的未来版本中增加对图形和表格的支持。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。