ZD至顶网服务器频道 02月04日 新闻消息:NSX-T将网络虚拟化功能引入云原生应用世界。
正如T先生所言,“我可怜那些尝试对接容器,但却没有精确虚拟网络控制能力的傻瓜。”
VMware公司已经公布了一款全新NSX网络虚拟化产品,即“NSX-T”。
根据我们的理解,其中这个“T”代表的应该是“变压器(transformers)”,代表着VMware公司希望借助这款产品将NSX的能力引入容器与微服务。NSX-T亦能够处理多种虚拟机管理程序,而不像NSX的另一子品牌NSX-V那样与vSphere紧密对接。
为了理解虚拟巨头发布NSX-T的原因,我们应当首先着眼于其发展历史。这款产品的根源来自NSX-MH(即‘多虚拟机管理程序’),这一NSX类方案基于VMware公司于2012年收购自软件定义网络先锋厂商Nicira的源代码,虚拟巨头也正是借此踏足虚拟网络市场。在Nicira公司发展的数年当中,其并无意以VMware为中心进行产品设计,因此相关方案能够支持多款虚拟机管理程序。VMware公司目前虽然仍继续发布NSX-MH,但却于去年打造出NSX-T 1.0,旨在帮助真正拥有此类需求的客户解决问题。
如今该公司决定在1.1版本当中对代码进行分享,旨在面向“异构端点与技术堆栈。”这一市场宣传口号代表着该产品将能够支持由红帽及Canonical推出的KVM、支持VMware公司自家的Photon Platform云原生应用代码,同时支持OpenStack Newton与Mitaka。
VMware公司还还打造出一套“面向有意尝试容器网络环境并可保障应用程序框架安全性的beta测试项目,其支持容器网络接口(简称CNI)项目。”大家的VMware客户经理显然对此更为了解,因此感兴趣的朋友不妨与其直接联系。
NSX-T的战略目标在于为VMware公司提供另一种能够吸引开发者的产品特质。vSphere与服务器整合/虚拟化对于运营团队而言非常重要,因为他们将能够借此通过管理服务器队列以实现额外的商业价值。最近一段时间以来,企业纷纷要求开发者们能够在应用中实现这种附加价值,从而解决在线业务交互领域存在的现实难题。
相当一部分开发者选择直接在云环境下处理这类问题。VMware公司则更倾向于引导客户在其喜爱的VMware托管基础设施中完成任务,而运营团队亦能够借此获得更理想的安全性、可靠性与治理水平。
VMware公司的容器与云原生应用项目皆是为了帮助开发者更好地对接VMware托管型基础设施,如此一来运营人员能够继续保持对基础设施的严格掌控,而开发者亦能在此基础上实施DevOps方针、容器以及云方案,且无需面对任何新增技术孤岛。
引入如此酷炫的新特性对于NSX产品家族来讲也是好事一件:微服务能够对容器进行串联,并允许各容器按照需求在虚拟网络上运转,随后在事务结束时自我关闭以保持NSX所一贯提倡的管理性与安全性。
NSX-T因此将继续推动VMware公司对开发者需求的重视,同时亦再次证明了该公司有计划在原有以vSphere为中心的产品设置之外做出新的尝试。
VMware公司还发布了NSX-V的6.3版本,其如今已经能够支持于2016年11月推出的vSphere 6.5。
虚拟巨头还掌握着另一套“新型应用规则管理器与端点监控方案,能够对由操作系统层活动到网络流程的各类环节进行独特的可视化观察,进而实现自动化策略与规则更新,最终改进微划分机制的实现方式与功能”。这听起来很像是VMware公司自己的另一套方案,即Goldilocks安全计划。
另外,还有一些技术成果能够简化多分支软件定义网络的创建流程,并利用提取自HQ的安全规则对其进行补充。
VMware公司上周宣布,NSX预计将能够在2017年年内带来10亿美元营收,这意味着其将成为虚拟巨头旗下的一大业务发展支柱,同时亦证明VMware当初以12.6亿美元收购Nicira公司的举措确实物有所值。
好文章,需要你的鼓励
清华大学研究团队提出了一种名为"硬负样本对比学习"的创新方法,显著提升了大型多模态模型在几何理解与推理方面的能力。通过构建图像和文本两类负样本,以及开发MMCLIP训练策略,他们的MMGeoLM模型在四个几何基准测试中表现卓越,甚至以7B参数规模与GPT-4o相媲美。实验证明,仅4K个真实图像负样本的效果就超过了100K个文本负样本,为AI细粒度视觉理解开辟了新路径。
《离散马尔可夫桥》研究提出了一种新型离散数据表示学习框架,克服了传统离散扩散模型使用固定转移矩阵的局限。该框架包含矩阵学习和分数学习两个核心组件,能够自适应学习转移率矩阵并有效重建原始数据分布。理论分析证明了其有效性和收敛性,而在Text8和CIFAR-10数据集上的实验展示了其优越性能,证明了这一方法作为离散表示学习统一框架的潜力。
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。