VMware于近日推出了一项详细的新计划,将使合作伙伴能够更快地开发由VMware软件提供支持的托管服务。
VMware公司战略生态系统和行业解决方案高级副总裁Zia Yusuf表示:“VMware Cross-Cloud托管服务是我们的又一个例子,说明VMware在授权合作伙伴扩展和发展他们VMware业务的同时,与他们共同合作帮助客户实施加速数字化转型的云智能战略。”
VMware主要销售企业用来管理云和本地基础设施的软件产品。VMware拥有庞大的客户群以及广泛的合作伙伴网络,这些公司提供专业服务,帮助客户更轻松地构建和维护VMware环境。
VMware本周详细阐述的这一新计划,将使合作伙伴能够更快地开发托管服务,特别是旨在鼓励开发两种类型的产品。
首先,VMware将帮助合作伙伴提供它所谓的“面向混合云的VMware Cross-Cloud托管服务”,此类服务将使企业能够降低本地基础设施的成本,并侧重于缩短把应用迁移到云端所需的时间。
为了实现这些目标,合作伙伴将使用多种不同的软件产品。首先,是VMware Cloud for AWS,这是VMware虚拟化软件的一个版本,经过优化可在云中运行。此外,合作伙伴还会使用Cloud Packs,它将多个VMware产品组合在一个针对特定用例优化的软件包中。
VMware新合作伙伴计划的另一个组成部分,是和合作伙伴合作开发“用于本地公有云和现代应用的托管服务”。
此类服务将帮助VMware客户对维护云应用所涉及的一些手动工作实施自动化,此外还承诺可以降低成本并提高安全性。合作伙伴将借助VMware的产品(例如软件制造商用于构建和管理容器化应用的Tanzu平台)提供服务。
参与的合作伙伴可以获得VMware Cross-Cloud托管服务徽章证书。据VMware称,该徽章将解锁多项上市优势,其中包括一项联合的销售计划,在该计划中VMware将向客户推广合作伙伴的托管服务。
据称,获得徽章的合作伙伴可以因提供评估和概念验证项目而获得高达“40%的额外奖励”,他们还将获得高达100%的部署服务收入,而且VMware还承诺提供其他财务上的激励措施。
反过来,客户将获得对新软件许可选项的访问权,这将让企业能够在合作伙伴的管理环境中使用现有的VMware订阅,这要比购买新的订阅更具成本效益。
VMware在该计划启动之际详细介绍了,目前VMware的合作伙伴生态系统中有4000多家云服务提供商,据称,这些合作伙伴为数以万计的客户提供支持。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。