思科推出了一款新的网络架构以应对日益增长的数据,该架构旨在将企业的数据中心扩展到数据所在的任何地方以及应用部署的任何位置。
思科今天早些时候在巴塞罗那举行的Cisco Live活动上宣布,将首次在AWS和微软Azure公有云上提供思科Application Centric Infrastructure(ACI)。
ACI是思科这主要的软件定义网络产品,旨在实现可扩展的多云网络,让企业组织可以在任何云或任何位置运行应用,而不会遇到可靠性问题。该架构在软件应用部署的地方(不管是托管在什么环境中)集成了虚拟机管理程序和容器框架构。
思科数据中心产品营销高级总监Dan McGinniss表示:“未来不再是以数据为中心,数据的分发范围更广,企业数据中心也不会消失。”
思科表示,为了应对这一现实,思科将自动化、网络管理和安全等软件定义定义网络功能与Amazon和微软的公有云全面集成。Cloud ACI和Virtual ACI让企业能够在这些平台上运行应用,从而充分发挥思科网络功能的全部优势,而这些功能以前只能在本地数据中心、裸机云和远程边缘位置上获得。此外,这些还让AppDynamics能够进行应用性能监控,让DNA Center和ISE Controller能够在Amazon和微软的云上实现统一身份访问。
思科称,Cloud ACI和Virtual ACI将在第二季度上市。
该思科还面向分支机构扩展了HyperFlex基础架构,并推出新的“CloudCenter Suite”,支持跨私有云和公有云基础设施的应用生命周期管理。
McGinniss表示,这个新架构旨在支持企业的数字化转型工作,而这种转型是以软件应用不断发展为特征的,包括可以更轻松地在任何地方构建、更新和部署的云原生应用,以及人工智能和数据分析等新技术改变应用和与客户交互的方式。
McGinniss解释说,此外,工作负载正在变得越来越分散,开发人员要求多云的能力。
他说:“我们也看到了很多边缘位置,有越来越多的服务被推到托管中心,我们需要在靠近数据的位置进行更多处理。没有一个适合所有客户的统一答案,所以我们的方法是将思科数据中心带到客户想要的任何地方。”
据称,思科ACI架构与其他SDN产品的不同之处在于,它不使用任何第三方资源来覆盖AWS或Azure。相反,客户将能够通过Cisco ACI现有的接口来管理他们的网络,这些接口充当了一种“通用远程控制”。
Enterprise Strategy Group高级分析师、实践总监Bob Laliberte表示,支持多云环境对于任何现代化技术平台来说都是一个关键因素。
Laliberte说:“随着企业组织希望扩展其混合云环境,这一点对于利用那些有助于提高生产力和流程的解决方案来说至关重要。能够在你自己的私有云环境以及多个公有云中利用相同的解决方案(如思科的ACI),这一点让企业组织能够成功地扩展他们的云环境。”
新推出的HyperFlex with Cisco Intersight产品也将在第二季度上市,这是一个设备和软件捆绑包,有助于将计算和存储能力从数据中心带到网络边缘。有了HyperFlex with Cisco Intersight,客户可以期待在边缘托管的应用能够获得与在数据中心托管的应用相同的性能,此外还可以在部署这些应用的地方运行分析。
同时,CloudCenter Suite是思科新架构的另一个重要组成部分,该套件让开发人员能够在任何位置构建和部署应用并监控其性能。CloudCenter Suite的主要功能之一是新的成本优化工具,可以帮助开发人员查看哪些资源未被充分利用,此外还可以提出建议以最大限度提高效率。
“CloudCenter让客户可以在公有云中编排应用,”思科数据中心营销高级主管Todd Brannon说。
市场研究公司Wikibon分析师James Kobielus表示,他对思科投资可自动化多云管理的工具这一举动印象深刻。
Kobielus表示:“思科在多云管理领域一个显著不同之处在于,思科在其自动化套件中引入了成本优化和治理功能。在IT预算有限的情况下,这种能力对于那些希望防止自己的混合环境、网状环境和其他多云环境陷入预算不可控情况的企业来说至关重要。”
最后,为了鼓励客户采用其新架构,思科推出了一种名为Cisco Enterprise Agreement的新许可模式,该模式让客户可以针对思科的七款产品套件(包括ACI和HyperFlex)选择三年或者五年许可协议,这样客户就可以灵活地在各种云平台(包括私有和公有基础架构)中部署思科的网络架构。
思科表示,新的许可协议模式将在第一季度推出。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。