VMware近日宣布扩大其云服务产品组合,帮助客户更好地管理多云环境的复杂性与风险,同时将统一IT运维从数据中心拓展至云端。
随着云计算的使用以及与云服务供应商的频繁合作,企业经历了不同基础架构、管理工具及相关流程所带来的更高复杂性与风险。VMware估计,除其本地数据中心之外,业内近三分之二的企业将使用两家以上的云服务供应商。(资料来源:VMware Cloud Market Study,2018年1月)
VMware云服务致力于让客户获得使用任意云环境的灵活性,同时提供管理与保护云的统一运维。VMware逐步扩大的云服务组合提供了跨任意云的可视性、操作性、自动化、安全性及管理性。
VMware产品与云服务首席运营官Raghu Raghuram表示:“对于支持新应用与现有应用复杂组合的需求将推动云应用,而对于各种应用的需求则将推动云决策。当客户利用统一基础架构或运维组合进行跨云时,VMware Cloud给予其前所未有的灵活性,帮助客户开发任意类型的应用,并在任意云端部署这些应用,将其分发给任意设备。”
扩大后的VMware云服务产品组合可使各组织机构自由地使用最适合其业务的云环境,且不会增加风险与复杂性。通过把统一运维从数据中心拓展至云端,VMware将针对云使用、基础架构成本、网络性能、详细的应用监控与分析提供端到端的可视化,并在公有云之间与本地环境下实现更高安全性。
宣布的内容包括:
由VMware Certified Reference Design提供支持的VMware Cloud Provider平台是VMware业经测试、验证且高度可扩展的重要产品,用于提供至关重要的云服务供应商功能(例如多租户、自助式、可扩展的框架),并测定VMware环境,支持云服务供应商借以推销差异化服务。利用最新发布的VMware vCloud Director 9.1,云服务供应商可以将各种服务与定制工作流及用户接口(UI)可扩展性相集成,进而创造新的商业化机会;利用多站点视图与旨在简化用户体验的增强型门户来简化管理并提高运维可视化;利用新的编程接口与Kubernetes即服务功能而向开发者开放,进而以DevOps为目标捕获新的工作负载。
此外,通过实施Certified Reference Design,各合作伙伴现可获得VMware Cloud Verified标识。随着客户应用组合的转变以进入多云、多设备的世界,VMware Cloud Verified标示出了面向客户推动创新、提高效率与降低成本以加快业务增长的云服务供应商,这些供应商顺应多云、多设备环境,进行了产品组合的转变。VMware Cloud Verified标识为客户提供值得信赖的云服务供应商,这些云服务供应商正在采用最完整、最先进的VMware技术,提供跨多云的最高级别互操作性,为企业带来最大的优势。
同时,VMware宣布在AWS欧盟区(包括伦敦)推出VMware Cloud on AWS。此项公告拉开了VMware Cloud on AWS全球扩张的序幕,让欧洲与跨国客户也能够使用VMware Cloud on AWS。VMware还推出了多项新功能,用于提高基础架构可用性水平,提升存储效率,并与更多的VMware Cloud服务相集成——支持客户加速云迁移,简化混合云部署。VMware还为“VMware合作伙伴网络”增添了新力量,支持系统整合商与系统外包商(SISO)合作伙伴、托管服务提供商以及解决方案提供商借助VMware Cloud on AWS壮大其混合云业务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。