VMware今天宣布将收购Avi Networks,意在让数据中心变得更像云。这次收购的价格未对外公布。
Avi Networks应用交付服务的客户包括德意志银行、思科和Adobe等大型企业。Avi Networks将这种服务称之为云架构,特别是有助于平衡跨数据中心和公有云的应用负载。VMware这次收购旨在将公有云灵活的、按需的体验以自动化和可扩展的方式更多地带入企业数据中心,从而实现两家厂商所谓的行业首个软件定义的网络堆栈。
预计这次收购将在VMware2020财年第二季度(截止于8月2日)完成,因此不会对2020财年财报产生重大影响。根据Crunchbase的数据显示,自2012年以来,Avi已经在四轮融资中筹集了1.15亿美元,投资方包括Greylock、Lightspeed Venture Partners和Menlo Ventures。
作为由Dell Technologies控股的上市公司,VMware主要提供虚拟化软件可以在单台计算机上实现多个“虚拟”计算机系统,让数据中心变得更加灵活高效。VMware软件几乎可用于任何规模的数据中心,多年来VMware一直在建立与云计算的连接,包括2016年底与AWS达成里程碑式的合作关系。这是VMware帮助企业管理IT基础设施的另一种方式,无论这些基础设施是在数据中心内部还是在云中。
Pund-IT分析师Charles King表示:“这次收购凸显了VMware从依赖于关键任务虚拟化厂商到企业迁移至混合云和云计算的首选厂商这一根本转变。”
“VMware致力于让数据中心像运行在公有云中一样简单轻松,而且Avi Networks加入不断壮大的VMware网络和安全产品组合将让我们在完成收购之后朝着这个目标更进了一步,”VMware高级副总裁、网络和安全业务部门总经理Tom Gillis在声明中这样表示。
他特别补充说,“此次收购将进一步推动我们的Virtual Cloud Network愿景,在这一愿景中,软件定义的分布式网络架构涵盖了所有基础架构,并将所有组成部分与公有云的自动化和可编程性结合在一起。”Gillis表示,Avi Networks与VMware NSX的结合将“进一步让企业组织能够对新的机遇和威胁做出响应,打造新的业务模型,为所有应用和数据提供服务,无论这些应用和数据是在什么地方。”
Gillis在新闻发布会上表示,Avi Networks特别提供了网络一个关键的组成部分——负载平衡。VMware表示,在完成收购之后,将把负载均衡功能内置到VMware NSX Data Center中,作为一个独立的应用交付控制器。他表示,预计VMware将在收购完成之后的90天内在提供Avi Networks产品。
Avi Network首席执行官Amit Pandey表示,Avi Networks的分布式应用开发控制器“将云策略进行映射”以提供软件定义的应用网络和安全服务、按需弹性、实时洞察、简化的故障排除和开发人员自助服务。
这是因为如今企业越来越需要跨多个云更快、更一致地交付和更新应用,从而需要跨私有云和公有云提供更多自动化网络服务和安全服务。老式的ADC——即使是那些经过调优可以运行在虚拟机上的ADC,也无法在分布式云环境中进行扩展或者提供足够的安全性,导致服务的过度使用、成本增加和故障排除速度降低等问题。
Avi Networks表示,它的平台可以帮助企业利用软件定义的应用服务克服旧系统和ADC设备的复杂性。VMware表示,在完成收购之后,将把负载均衡功能内置到VMware NSX Data Center中,作为一个独立的应用交付控制器。
Avi Networks平台提供了许多服务:Software Load Balancer、Intelligent Web Application Firewall、Advanced Analytics and Monitoring以及Universal Service Mesh。据称,Avi Networks的中央控制平面和分布式数据平面将应用服务作为动态的多云结构提供,可自动执行决策并提供更多分析和弹性需求。 该技术跨私有云和公有云运行,支持应用运行在虚拟机上、软件容器上(让应用可保持不变地运行在不同的计算环境中)以及裸机服务器上(不需要预装软件)。
King表示:“收购Avi Networks对于VMware来说是明智之举。传统的负载平衡主要集中在管理服务器以确保应用具有最佳性能所需的系统资源。但是,对于运行在内部环境和云端运行的工作负载来说,这这个任务就变得尤为复杂和困难了。”
好文章,需要你的鼓励
这项研究探索了语言神经元视角下多语言对齐如何增强大语言模型(LLMs)的多语言能力。研究团队提出了一种更精细的神经元识别算法,将激活神经元分为语言特定、语言相关和语言无关三类,克服了现有方法的局限性。基于这种分类,研究将LLMs多语言处理过程划分为四个阶段:多语言理解、共享语义空间推理、多语言输出空间转换和词汇空间输出。通过分析对齐前后不同类型神经元的变化,发现多语言对齐促进了更多语言相关神经元的共享使用,减少了对语言特定神经元的依赖,这也解释了"自发多语言对齐"现象。
这项由弗吉尼亚大学与Adobe研究院合作的研究突破了传统图像到视频生成的空间限制,提出了"Frame In-N-Out"技术,使物体可以自然地离开画面或新物体能够进入画面。研究团队创建了专门的数据集和评估方法,并设计了一种融合运动控制、身份参考和无边界画布的扩散变换器架构。实验结果表明,该方法在生成质量和控制精度上显著优于现有技术,为电影制作和创意内容创作提供了新可能。
浙江大学研究团队开发了首个评估视觉语言模型多视角空间定位能力的综合基准ViewSpatial-Bench,并揭示了现有模型在视角转换理解上的严重缺陷。通过自动化3D标注流水线构建的大规模数据集,他们训练出的多视角空间模型(MVSM)实现了46.24%的性能提升,为人机空间交互提供了新的解决方案,使AI系统能更好地理解人类视角下的空间关系,促进更直观的人机交流。
ByteDance团队提出的DetailFlow是一种创新的图像生成方法,通过"下一细节预测"策略实现从粗到细的自回归生成。它将图像编码为仅需128个令牌的1D序列,比传统方法少5倍,却实现了更高质量(2.96 gFID)和更快速度(提速约8倍)。该方法巧妙地模拟人类创作过程:先勾勒整体结构,再逐步添加细节,并通过自我纠错机制解决并行推理中的错误累积问题,为高分辨率图像生成提供了高效解决方案。