本届大会汇聚来自运营商、供应商、研究机构及产业链上下游的技术领袖与行业专家,围绕全光网络、智算互联、空芯光纤等前沿技术话题,共同探讨AI时代下光网络演进的新趋势、新路径与新格局。
在此次会议上,上海诺基亚贝尔股份有限公司基础网络业务集团光网络事业部总经理张寒峥出席并发表了“激发AI在网络基础设施中的潜能”的主题分享。他表示,“AI正在不停地改变我们的生活,而作为传输领域的从业者,我们更关注它对网络流量的实际影响。”
▲上海诺基亚贝尔股份有限公司基础网络业务集团光网络事业部总经理 张寒峥
据Nokia Bell Labs预测,到2033年,全球每月与AI相关的网络流量将超过1000EB,这是一个极为庞大的数字。其中,消费者AI流量预计达1006EB/月,复合年增长率23%;企业AI流量虽基数较小(81 EB/月),但增速高达57%。这意味着,未来十年AI流量将成为网络带宽需求的核心驱动力。
需要强调的是,AI正在影响和增强我们的网络。面向消费、工业、企业等不同场景的AI应用,对网络的需求截然不同。例如,消费级AI更多涉及短视频、智能助手等实时交互场景,而企业级AI则聚焦于工业视觉检测、供应链优化等专业领域。这种差异化需求,正推动网络架构向更灵活、更智能的方向演进。
AI对网络基础设施的双重挑战:Networking for AI
从应用场景看,AI对网络的需求可概括为“Networking for AI”,即面向AI的网络构建。
当前,大模型训练与推理业务正从单数据中心向分布式架构演进。在数据中心内部,大模型训练对带宽和无损传输要求极高,哪怕一个数据包丢失都可能影响模型学习效率。例如,GPT系列模型的训练过程中,数千台服务器间的海量数据同步需确保低时延、高带宽的网络连接。
随着模型规模指数级增长(如万亿参数模型),跨数据中心的分布式训练成为必然。此时,网络需支持突发的大带宽数据迁移。例如,一次模型迭代可能需要传输数百PB的数据,且对时延敏感——这要求网络具备弹性调度能力,能在短时间内快速分配带宽资源。
AI应用向边缘侧下沉已是大势所趋。终端设备(如VR 头显、工业传感器)与边缘节点间的流量增长尤为迅猛。以沉浸式VR为例,不仅需要中心向边缘的下行大带宽,用户实时交互产生的上行流量同样可观,这种对称业务对传统网络架构提出了全新挑战。
AI业务可分为训练与推理两大类型,二者对网络的要求近乎相反。
训练业务追求 “越快越好”。为加速模型迭代,需调用海量算力集群与存储资源,传输带宽需求呈爆炸式增长。例如,训练一个自动驾驶模型可能需要每天传输数EB的数据。但这类业务多为离线处理,对实时性要求相对较低,允许一定的调度灵活性。
推理业务强调“实时响应”。当用户通过语音助手提问或使用AI客服时,系统需在毫秒级内返回结果,这要求网络具备极低的时延和稳定的连接质量。但推理阶段的数据量通常远小于训练阶段,带宽需求相对可控。
这种矛盾的需求倒逼网络架构走向“分层设计”:核心层专注于大带宽传输,边缘层则优化时延性能,同时通过智能调度算法平衡资源分配。
值得注意的是,AI流量在网络中的分布并非均匀。Nokia Bell Labs研究表明,终端到城域边缘的流量增长速率最快,其次是边缘到核心的流量。这意味着,接入侧和边缘侧将成为未来网络扩容的重点。
例如,在工业场景中,传感器数据从终端到边缘服务器的传输量,可能比边缘到云端的数据量高出3-5倍。这种分布特征要求网络建设从“核心优先”转向“边缘优先”,在接入网部署更高带宽的光纤资源,在边缘节点集成更强的算力与网络调度能力。
AI赋能网络:AI for networking的三大价值维度
AI对网络运维的改造,可概括为“AI for networking”。传统网络运维中,重复的配置巡检、恶劣环境下的设备排查、高危场景的故障处理,以及耗时耗力的资源优化,都可通过AI驱动的自动化工具解决。
此外,AI可自动生成网络配置脚本,替代人工重复操作,将配置效率提升 80%以上。而且,通过无人机搭载AI视觉系统,可替代人工完成高压输电线路附近的光缆巡检,降低作业风险;避免下水道侦察、挤牛奶、尸检和矿井勘探,远离肮脏环境。成本方面,AI通过分析全网流量模式,动态调整路由策略,减少网络拥塞,每年可为运营商节省数千万美元的带宽成本。
AIops通过AI增强网络运维,其价值可进一步归纳为三个“S”:
Service(服务):人工智能可以提高网络运营效率,从而加速服务交付并确保持续遵守服务等级协议(SLA)。
Security(安全):AI/ML技术可以帮助及早准确地检测DDoS活动,并采取即时、有针对性和优化的缓解措施来阻止此类攻击。
Sustainability(可持续):通过优化网络资源,人工智能可以帮助降低功耗,最大限度地减少能源消耗和环境足迹。
在实现这些价值的过程中,意图驱动的网络成为了我们追求的目标。这样的网络需要具备感知、思考和行动的能力,通过海量数据的收集和学习,对网络状况进行准确判断,并在此基础上做出决策,实现闭环的网络管理。对于运维人员而言,AI的应用将带来诸多便利。
传统上,网络运维人员主要依靠经验和经验库来分析故障,而AI的引入则能够显著提升他们的分析能力,快速准确地定位和解决问题。
同时,AI还能够实现辅助功能,通过自然语言与网络设备进行交互,发出指令,让网络执行相应的操作,无需运维人员掌握复杂的编程技能。这不仅提高了网络运维的效率,还降低了对人员专业技能的要求,使更多的人能够参与到网络管理中来。
诺基亚贝尔一直在积极探索和实践AI在网络基础设施中的应用,曾经进行了一个有趣的实验,利用大语言模型(LLM)作为代理,通过自然语言指令来实现网络的跨域编排。
当需要建立一个新的业务连接时,只需用自然语言向LLM代理表达需求,它便能分析指令并调用相应的专业函数,协调多个域的网络设备,完成从IP到光传输的配置,甚至可以驱动机器人执行物理连接操作,如光纤切换等。
诺基亚的AI网络基础设施,构建全球最关键的网络
诺基亚贝尔构建了完善的AI驱动网络基础设施产品体系,产品覆盖固网接入、IP传输、数据中心、海缆等多个领域。核心目标是为客户提供灵活的容量方案,以满足各种业务的灵活需求。同时,确保网络始终保持在线,保障业务的连续性和稳定性。
弹性扩容(Scalable)方面,通过FP系列路由硅片、PSE相干光DSP等自研芯片,支持单波长400G/800G超高速传输,满足AI流量爆发式增长需求。高可用性(Available)方面,采用多层级冗余架构,如光层1+1保护、IP层FRR(快速重路由),确保AI应用99.999%的在线率。
安全可信(Secure)方面,从芯片到系统的端到端加密方案,支持国密算法与零信任架构。绿色高效(Efficient)方面,Elenion硅光子技术将光模块功耗降低 30%,Quillion接入处理器实现边缘节点的低功耗算力整合。
激发AI在网络基础设施中的潜能,非单一企业之力所能及,需构建广泛的生态合作体系,芯片厂商、云服务商、运营商等生态伙伴的协同。目前,诺基亚贝尔已与联想、Carahsoft、Verizon、腾讯等企业合作,共同定义AI网络的技术标准与应用场景,构建开放、合作、共赢的产业生态。
结束语
AI给网络基础设施带来的变革,既是挑战,更是机遇。作为基础网络领域的深耕者,诺基亚将持续投入芯片、软件与自动化技术创新,以“构建为AI而生的网络,赋能网络以AI的智慧”为使命,与生态伙伴携手,共同推动光网络向更灵活、更智能、更可持续的方向发展。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。