软件容器已经成为构建云原生应用(构建一次就能在任何地方运行)的一种有用工具,而Kubernetes软件已经迅速成为大规模部署这些应用的一种方式。
但这些工具都需要非常专业的技能来实施,因此基础设施厂商认为企业将从托管服务中受益,以帮助他们在私有云和公有云中运行。
考虑到这一点,HPE本周更新了OneSphere混合云管理产品,增加了新的“容器服务”功能。HPE表示,这是为了帮助企业满足持续编排和扩展容器化应用的要求。
HPE表示,这个平台旨在让企业能够对企业私有云和公有云平台有全面的了解。因此,他们可以使用OneSphere加速跨VMware私有云的容器化应用部署。通过这项服务,企业可以将更多时间用于构建应用,而不必担心操作问题。
HPE希望填补日益增长的技能差距,因为众所周知,企业正在努力招聘管理容器基础设施部署所需的技术人员。当他们使用托管服务时,企业不需要雇佣那么多基础设施专家,只需要构建应用所需的开发人员就可以了。
“希望利用这些快速发展的技术的IT组织,必须聘用对开源有着深刻理解的技术人员,以便部署、运营和维护这些平台。这些技能是很难招聘来并且保留下来的,这成为很多团队采用这些现代框架的一项挑战,”HPE混合云部门副总裁兼总经理Wayland Jeong在博客文章中这样写道。
HPE OneSphere服务的主要优点之一,是它允许企业在私有云和公有云上使用相同的工具,也就是他们可以从同一个界面将工作负载部署到这两种类型的平台上,无需更改任何代码。
Constellation Research首席分析师兼副总裁Holger Mueller说:“这为CXO提供了更好的单一视图来运行下一代应用。”
OneSphere目前支持在AWS公有云和VMware私有云上运行Kubernetes集群。HPE表示,将在下周拉斯维加斯举行的VMworld大会期间预览OneSphere新增的容器管理功能。
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。