Aruba Atmosphere大会宣传横幅。
上周,我参加了HPE Aruba举办的第二届Atmosphere数字大会。这一次,Aruba将一系列重要用例与去年大会上发布的边缘服务平台(Edge Serviecs Platform,简称ESP)增强功能完美结合了起来。此外,我也有幸在问答环节中与公司管理层直接对话。在今天的文章中,我想从自己的角度为大家带来消息梳理与要点汇报。
收购Silver Peak ,整合价值
HPE于去年7月宣布有意收购Silver Peak,并在之后几个月内顺利完成交易。面对近100亿美元的巨额收购价码,看来HPE是在Silver Peak身上看到了巨大的潜在价值。我相信这次收购是明智之举,有望将Aruba在分支机构软件定义广域网领域(HPE将其称为「SD-Branch」)与Silver Peak强大的安全与分段功能整合起来。此次合并还成功消除了两位领导者在SD-WAN业务层面的冗余交集,避免重复性产品占用过多企业资源。
更令人印象深刻的是,Aruba只用了短短六个月就把Silver Peak与边缘服务平台(ESP)成功统一起来。Aruba ESP中包含四大核心要素——云服务与数据管理、动态策略与安全性、连接多样性、以及生态系统创建。Silver Peak则通过零信任细分、统一分支机构安全与扩展合作伙伴生态系统三大主要方式给ESP带来增强。下面具体来看。
时至今日,零信任已经成为每一家网络基础设施供应商的核心议题。面对物联网设备的爆炸式增长,缺乏统一历史标准与大量设备的“无头”(即不具备自有用户界面)特性,已经让物联网成为网络运营商眼中的巨大风险来源。Silver Peak的零信任细分机制要求特定设备及用户仅能够与其角色及功能相关的对应端点进行通信,借此消除物联网威胁。此外,统一分支机构安全则负责提供威胁可见性、策略驱动实施与事件关联能力。Silver Peak的EdgeConnect则作为功能的交付管道。在我看来,Aruba Central通过入侵检测与预测、威胁日志记录与分析、以及基于区域的防火墙等功能进一步增强了本已相当可靠的Aruba安全产品。最后,Silver Peak还扩展了Aruba多年以来精心构建的合作伙伴生态系统,着力以API原则保障各类第三方设备、应用程序与服务之间的互操作性。
Aruba高管观点
在这次线上大会中,我有幸与Aruba总裁Keerti Melkote、CTO Partha Narasimhan,以及Silver Peak公司创始人David Hughes(现任Aruba WAN业务负责人)直接对话。Melkote先生谈到由疫情流行引发的数字服务爆发式增长,包括远程医疗与电子商务等具体领域。边缘基础设施的快速部署,极大提高了各类用例的延迟与往来吞吐量。而Aruba的ESP平台显然希望把握住这个难得的机会。
Narasimhan先生则在分组讨论中带来了三个客户案例,其一侧重于工作场所、其一侧重于网络运营、其一侧重于基于位置型服务的对应业务成果(这也是Aruba Meridian平台的核心优势所在)。他对于Aruba Fabric Composer的介绍给我留下了深刻印象。根据说明,Fabric Composer能够消除成千上万条CLI命令,极大简化并加快网络部署流程。如此一来,IT员工能够把更多精力放在增值业务身上,例如交付新的应用与服务方案。
最后,Hughes先生又谈到Silver Peak收购完成后安全访问服务边缘(Secure Access Service Edge,简称SASE)的全面崛起,特别是它如何改变物联网设备的管理思路。他提出一个令人信服的观点:SASE无法管理无头设备,而这类设备的存在已经对大部分网络构成新的威胁。敢于提出这个问题,Hughes的心中应该已经有了解决方案——答案很可能就是EdgeConnect通过零信任分段提供的设备保护功能。
总结
毫无疑问,Silver Peak与Aruba ESP平台的对接是一场双赢联合。这次集成不仅扩展了Aruba Central与ClearPass中已经令人印象深刻的功能集,也将推动Aruba逐步成长为SD-WAN/SASE部署市场的顶尖参与者。Aruba还计划以Intelligent Edge解决方案为中心,不断交付更多重要新功能。相信以云计算为发展方向的Aruba,必将凭借全面的产品组合与强大的“从边缘到云端”前进路线达成惊艳世人的成就。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。