HPE正在通过推出新的应用、分析和开发者服务扩展GreenLake即服务产品组合,旨在帮助企业组织更好地管理多个公有云和私有云。
近日HPE在Discover Frankfurt活动上发布了这些公告,其中首先是在GreenLake for Private Cloud Enterprise预打包私有云产品(去年夏初推出)中扩大了对软件容器编排器Kubernetes的支持。HPE表示,现在该产品支持AWS的Elastic Kubernetes Service Anywhere,让客户能够通过可选的AWS支持在本地创建和操作Kubernetes集群。
HPE还表示,将会推出一组针对工作负载优化、以即用即付进行定价的云实例。此外HPE扩大了合作伙伴生态系统,新增对Red Hat OpenShift容器平台和VMware虚拟化软件的支持。此外,HPE推出了一套消费分析功能,旨在提高客户对三家主流超大规模云厂商及其本地基础设施使用情况和成本的洞察力。
用于私有云的AWS Kubernetes
GreenLake for Private Cloud Enterprise是一个完全托管的私有云,可以同时运行云原生应用和传统应用,为公有云和私有云服务提供了单一的全局命名空间,并从公共基础设施池中自助部署裸机、虚拟机和容器工作负载。
支持Amazon EKS Anywhere则让客户可以在本地运行他们在公有云中所使用的容器,并在混合云中获得一致的体验。开发者可以通过应用界面、命令行界面或者作为基础设施即代码,从中央控制台的选择中部署实例。他们还可以从各种操作系统、容器化应用和工具链集成服务中进行选择。该平台在公有云和私有基础设施中利用的是相同的自动化和持续集成/持续管道。
HPE Greenlake云服务解决方案产品管理副总裁Bryan Thompson说,这是“部署优化的基础设施,但采用多云的方式”。他说:“虚拟机是筹码,但我们还添加了容器实例和裸机。它不是以材料清单的形式提供的,而是以价目表的形式提供,因此和传统HPE解决方案是有所不同的。”
新增的优化实例涵盖通用、计算优化、内存优化和存储优化用例。通用实例针对Web服务器和机器学习数据准备等应用。计算优化服务的目标用途包括容器、虚拟机和NoSQL数据库。内存优化产品则针对内存数据库和高速分析进行了调整。存储优化版本旨在帮助客户管理数据湖和软件定义的存储服务。
HPE公司高级副总裁、Greenlake云服务解决方案总经理Vishal Lall表示:“支持私有云的基础设施不是同质的,我们构建了具有不同风格的基础设施,以发挥这些特定工作负载的性能。”
跨云分析
消费分析服务的增强功能,包括简化了的反馈报告,以及让客户可以用来改进混合环境容量规划和预算的仪表板。
Thompson表示:“我们现在可以使用来自AWS、微软Azure和Google Cloud Platform的入站数据,并将其纳入相同的报告机制中,报告整个云资产中工作负载的消耗情况,无论是在私有云还是公有云中,这是一个私有云解决方案,是多区域支持和多数据中心支持的。”
管理功能方面,包括基于角色的访问控制、配额限制、资源配置指南、安全策略和自助服务策略。
HPE还为GreenLake for Data Fabric和Ezmeral Unified Analytics产品引入了早期访问计划。Data Fabric产品整合了本地、云和边缘设备上不同数据类型。Ezmeral支持用于数据工程、分析和数据科学的开源工具。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。