VMware今天宣布为使用多云计算系统的企业打造“数字基石”计划,与此同时,VMware推出了大量旨在帮助企业管理操作这些云的新服务。
VMware Cloud Services是一系列旨在实现云一致化的服务,提供的机制让客户可以使用和管理来自不同提供商的公有云基础设施。这些工具让用户能够在内部部署环境和公有云环境之间轻松地管理、配置和来回迁移工作负载,同时提供对可用资源、成本管理和法规遵从性等内容的可视性。
今天上午在VMworld 2018大会上公布的扩展升级项,旨在增强这些功能,目标是简化应用交付,实现云的灵活性和选择,同时控制风险。
VMware云服务业务部高级总监Mahesh Kumar在上周的简报会中这样解释说:“简而言之,你谈论的是一个完全自动化的云应用开发和部署平台。”
或者正如VMware首席执行官Pat Gelsinger在主题演讲中更加简洁地说:“云的规则无情地自动化了一切。”
对于软件开发人员来说,最令人兴奋的新服务可能是VMware Cloud Automation,这一套自动化服务可以帮助他们更轻松地构建和部署软件应用。今天面市的这套工具中包括针对DevOps团队的VMware Cloud Assembly,有助于统一自动部署和使用应用的体验,无论应用是在私有云、公有云还是企业数据中心内部部署;VMware Service Broker可以从单个门户实现对多个云基础设施和应用资源的自助服务访问,更轻松地控制资源访问并在各个环境中满足合规要求。
Cloud Automation服务包中的最后一个工具是VMware Code Stream,用于自动编码和应用发布流程,可以与各种流行的开发者工具集成,并支持AWS、微软Azure、VMware私有云和VMware Cloud on AWS。
更新:周一早上,VMware宣布将收购CloudHealth Technologies及其位于波士顿约200人的团队,并将其转变为VMware自己的云管理平台。
VMware表示,这次收购将为VMware的产品组合增加“跨云的一致运营交付”,补充VMware现有的云自动化服务、Secure State和Wavefront云监控和分析平台。此次收购
预计将在当前这个季度完成。
此外,VMware还推出了一个目前处于Beta测试阶段的新服务,旨在帮助降低跨多个云环境运行工作负载的风险。这个名为VMware Secure State的服务本质上是一个监控工具,可以对本地云环境中的配置安全性和合规性要求实现自动化,为IT团队提供有助于防止任何安全事件或违规的洞察。
VMware还提供了应用性能的监控工具:Wavefront by VMware可以深入了解在软件容器中运行的多达100000个高度分布式Web应用的性能,该工具已经从今天开始面市。
Wikibon分析师James Kobielus表示,他对这些新服务印象深刻,这些服务展示了VMware核心虚拟化产品组合的持续发展。
Kobielus说:“VMware已经显著强化了自己跨混合云和多个云对应用进行扩展、自动配置、监控、管理、测试、分析、故障排除和保护的能力。VMware有望成为跨复杂多云环境统一DevOps的首选厂商,在多云环境中,容器和无服务器将让过去二十年作为VMware业务根基的传统虚拟机管理程序技术黯然失色。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。