HPE本周举行年度Discover大会,公布了一系列旨在推动混合云计划的公告,并将人工智能融入到自己的基础设施管理产品中。
本周HPE宣布的更新包括在产品组合中扩展当前机器学习驱动的操作以及可组合基础设施选项,新的工作负载优化基础设施,一款具有智能管理功能的高端存储新产品,以及Aruba Central基于云的网络管理平台增强功能。
可组合基础设施是将计算、存储和网络结合成为一种模型,可以通过软件进行管理,并根据需要进行扩展。HPE将扩大对可组合基础设施的支持,涵盖现有的ProLiant DL 380/360/560 Gen10机架式服务器。 HPE基于OneView和Composable Fabric基础设施管理套件的Composable Cloud,将让HPE ProLiant DL新客户能够在可组合的机架环境中部署和扩展工作负载。
HPE还通过集成InfoSight(一种简化虚拟机管理的运营管理工具)来增强SimpliVity超融合基础设施产品。两年前HPE通过收购闪存厂商Nimble Storage获得了InfoSight,InfoSight使用预测数据分析来推荐提高支持基础设施性能的方法。HPE软件定义和云业务市场营销总监Lauren Whitehouse表示,InfoSight可以解决的问题包括闲置容量、次优工作负载、所需的固件升级和虚拟机优化。
新增的SimpliVity型号适用于远程办公和其他边缘计算场景。325型号采用紧凑型1U机箱,配备1个AMD EPYC CPU和全闪存存储,可以与SimpliVity 380结合使用。SimpliVity 380是一个针对长期存储进行了优化的节点,可以集中聚合来自多个SimpliVity站点的副本。
另外新推出的HPE Nimble Storage dHCI是一种“分解式”超融合基础设施,它将超融合控制与自我管理存储以及InfoSight管理结合在一个ProLiant服务器中。这种架构将存储和计算功能分离到不同的节点上。HPE表示,Nimble Storage dHCI可提供99.9999%的数据可用性和亚毫秒级的延迟。
Whitehouse表示:“如果你的多云应用需要具有直连存储那样的可用性和弹性,那么你就要面对管理这种环境的大量开销。Nimble Storage dHCI为你提供直接存储的可靠性和网络存储的灵活性。”
全新的高端存储平台
在企业存储方面,HPE宣布推出了Primera高端存储平台,该平台采用InfoSight来预测和防止基础设施堆栈中的问题,并提高性能。
Primera基于大规模并行多节点平台,采用高速非易失性内存接口和存储级内存,提供速度接近随机读取内存的持久存储。HPE存储市场营销副总裁Sandeep Singh表示,这种组合每秒可实现高达150万的IOPS和每秒高达45兆比特的带宽。
这款软件更加模块化,并且与数据服务分离,无需重新启动操作系统即可进行更新和重新启动。最后,HPE推出了一个针对Primera平台调优的InfoSight版本,该版本可以自动解决绝大多数支持问题,包括虚拟机层的支持问题。
Singh说,关联影响多个内部部署和云平台性能因素的任务“可能需要数百万次计算,人类根本无法解决这些问题”。他说,这时候基于机器学习的智能就可以发挥极大的作用。
“闪光加快了速度,但我们现在只看到增量收益,真正改变游戏规则的是人工智能预测和预防问题并提供见解的能力。”Primera所采用的技术可以帮助客户节省下120万美元的存储升级成本,因为InfoSight可以发现很多虚拟桌面会话问题,而不仅仅是CPU使用率翻一番这种问题。
HPE将从第三季度开始接受Primera订单,目前定价尚未公布。
最后,HPE通过增强Aruba Central进一步推动自己的“智能边缘”战略。Aruba Central是一个基于云的平台,结合了网络管理、分析、模拟用户体验监控以及有线、无线和广域网络的安全性。
HPE的Analytics and Assurance网络监控和管理平台已经与Aruba Central进行了集成,可以加快网络问题的修复和基础设施的优化。针对WAN场景的分支管理和编排功能已得到改进,而这主要是涉及多个数据中心的大型环境。
HPE表示,网络安全策略现在可以扩展到公有云的工作负载了,此外HPE推出了一个新的软件即服务优先级功能,可以提高SaaS应用性能和用户体验。此外,HPE通过策略执行让设备和用户层面的安全性也得到了简化。还有网络管理工作流程方面的增强功能,现在可以自动执行设备配置、网络运行状况监控和跨不同位置的故障排除,预计将于7月全面提供。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。