F5携手NVIDIA全面增强AI时代的性能、多租户与安全能力

Sesterce的验证成果彰显了F5与NVIDIA的协同创新实力,助力客户释放 AI 优先的应用交付价值

2025年7月9全球领先的应用交付和API安全解决方案提供商F5宣布,F5 BIG-IP Next for Kubernetes推出全新功能。该解决方案深度整合NVIDIA BlueField-3 DPU以及NVIDIA DOCA软件框架,并已通过欧洲客户Sesterce的实际部署验证。Sesterce是欧洲领先的新一代基础设施及主权人工智能(AI)运营商,致力于满足加速计算与AI发展的严苛需求。

作为对F5应用交付与安全平台(F5 Application Delivery and Security Platform)的进一步扩展,BIG-IP Next for Kubernetes现可原生运行于NVIDIA BlueField-3 DPU,为大规模AI基础设施提供高性能流量管理与安全防护,从而显著提升AI应用的运行效率、控制能力与性能表现。今年早些时候,F5 曾在该解决方案正式发布时公开普遍可用性并展示其卓越性能优势。如今,Sesterce已完成对该联合解决方案多项关键能力的验证,涵盖以下领域:

  • 性能、多租户能力安全性全面增强达到云级应用交付标准,初步测试显示GPU利用率提升达20%;
  • 集成NVIDIA Dynamo及KV Cache Manager:显著降低大语言模型(LLM)推理系统延迟,并优化GPU与内存资源利用率;
  • 基于BlueField DPU的LLM智能路由:与NVIDIA NIM微服务协同运行,支持多模型工作负载,帮助客户灵活调用最优模型;
  • 模型上下文协议(MCP)扩展与安全防护:通过反向代理功能与安全防护机制,提升LLM的可扩展性与安全性,助力客户快速、安全地利用MCP服务器的强大效能;
  • 强大的数据可编程能力:依托F5 iRules实现快速定制化开发,以满足AI应用及日益演进的安全需求。

Sesterce首席执行官兼联合创始人Youssef El Manssouri表示,“早在尚未进行任何测试前,F5与NVIDIA的集成方案就展现出令人瞩目的潜力。通过在AI环境中实现高吞吐量的Kubernetes入口与出口流量,我们的测试结果印证了F5动态负载均衡技术的卓越优势。该解决方案不仅提升了流量分发效率,优化了GPU资源利用率,同时也使我们能够为客户提供更多差异化价值。我们很高兴地看到F5正不断拓展对NVIDIA多样化应用场景的支持,包括增强型多租户功能。我们期待双方在下一代AI基础设施领域持续深化合作,推动更多技术创新。”

全新解决方案的核心能力价值包括:

  • 基于BIG-IP Next for Kubernetes的大语言模型路由与动态负载均衡

借助该联合解决方案,企业可将简单的AI相关任务路由至成本更低、更轻量级的LLM以支持生成式AI,同时将更复杂的查询留给性能更强大的高阶模型处理。该可定制化的智能路由机制还支持按领域调用特定 LLM,从而提升输出质量并显著改善客户体验。F5的先进流量管理技术可确保查询精准分发至最适合的模型节点,从而降低延迟并加快首个词元生成时间。

F5首席创新官Kunal Anand表示,“当前,企业日益采用多模型架构以打造先进的AI体验,但LLM 流量智能分类与路由计算资源消耗大,易导致系统性能下降并影响用户体验。F5 BIG-IP Next for Kubernetes通过在NVIDIA BlueField-3 DPU上直接编写路由逻辑,提供了业界当前最高效的LLM流量交付与安全解决方案。这仅仅是一个开始——我们的平台正在为AI基础设施释放更多潜能。随着企业级AI规模持续扩大,我们期待未来持续深化与NVIDIA的联合创新。”

  • 通过NVIDIA Dynamo与KV缓存集成实现分布式AI推理的GPU优化

今年早些时候,NVIDIA推出Dynamo框架,旨在为生成式AI与推理模型在大规模分布式环境中的部署提供支撑。通过统一调度、流量路由和内存管理等核心任务,NVIDIA Dynamo有效简化了分布式环境中AI推理的复杂性,确保其在动态工作负载下的稳定运行。F5与NVIDIA的联合解决方案的核心优势之一,是将部分计算操作从CPU卸载至BlueField DPU,从而显著提升整体效率。借助F5技术,Dynamo KV Cache Manager可基于容量智能路由请求,并通过键值(KV)缓存机制,显著加速生成式AI应用的响应速度。该机制通过复用历史运算信息,避免重复计算,显著降低资源开销。就基础架构而言,企业通过KV缓存存储与复用机制,相比直接占用GPU昂贵的内存资源,能以更低成本实现性能优化。

NVIDIA AI网络与安全解决方案生态系统及市场营销高级总监Ash Bhalgat表示,“采用NVIDIA BlueField-3 DPU加速的BIG-IP Next for Kubernetes,为企业与服务提供商提供了单点控制,助力AI工厂实现高效GPU利用率,并加速数据摄取、模型训练、推理、检索增强生成(RAG)及代理式AI等各类 AI 流量处理。此外,F5对多租户的支持以及iRules可编程性方面的持续优化,为未来进一步集成NVIDIA Dynamo分布式KV Cache Manager等先进特性打下了坚实基础。”

  • F5与NVIDIA联合强化MCP服务器安全防护能力

MCP是由Anthropic推出的一项开放协议,旨在标准化应用向LLM提供上下文信息的方式。通过在MCP服务器前端部署F5与NVIDIA联合解决方案,F5可充当反向代理,从而增强MCP解决方案及其所支持LLM的安全能力。同时,F5 iRules提供的全数据可编程能力,能够快速并灵活地响应AI协议的快速演进需求,并进一步抵御新兴网络安全风险。

World Wide Technology全球服务提供商高级副总裁Greg Schoeny表示,“实施代理式AI的企业日益依赖MCP部署来提升LLM的安全性与性能。F5与NVIDIA通过为大规模Kubernetes环境提供先进的流量管理与安全防护能力,打造了融合可编程性与自动化能力的AI 功能集,这一集成解决方案目前在业界尚无先例。”

基于NVIDIA BlueField-3 DPU平台部署的F5 BIG-IP Next for Kubernetes现已全面上市。

来源:业界供稿

0赞

好文章,需要你的鼓励

2025

07/09

11:39

分享

点赞

邮件订阅