随着数字革命愈演愈烈,全球对移动数据和服务的需求正在迅速增长。当新需求、新使用场景或新标准进入市场时,更换过时硬件的方式可能无法实施,因为企业可能会因此而产生巨额成本。
与其他企业一样,通信服务提供商希望从其投资中获得最大收益。因此,他们通过降低总体拥有成本、节省电力和创建持续创新的平台来实现这一目标。
十多年来,英特尔一直与生态伙伴及客户合作,共同引领网络转型。在近日举行的2023巴塞罗那世界移动通信大会(MWC Barcelona 2023)上,英特尔公布了众多重磅产品更新,包括集成vRAN Boost的第四代英特尔至强可扩展处理器、英特尔基础设施电源管理器平台套件、英特尔融合边缘媒体平台、Agilex 7 FPGA等。
虚拟化及开放式RAN已成未来趋势
网络基础设施是否也可以用类似方式通过软件来定义?答案是肯定的。
软件定义基础设施的网络现代化是现在通信服务提供商进行转型的重要方面,而vRAN、边缘、云原生等趋势正在推动他们加速IT基础建设的升级。
英特尔技术专家告诉记者,网络越发复杂,云原生、虚拟化等技术可以帮助通信服务提供商打造更加灵活的网络架构以应对网络变革。
当下,在全球大多数无线网络中,RAN都被部署为固定功能设备,此种方式一旦部署就无法更改。以整个产业的发展状况来看,预计到2024年75%由企业产生的数据,将在数据中心和云以外的边缘进行处理。这意味着整个网络架构需要进行一个跨时代的改变。
英特尔构建了一个基于灵活、可编程通用芯片的架构,集成了用于繁琐任务的加速功能,使通信服务提供商能够顺利地部署完全虚拟化的RAN,并充分利用端到端软件定义网络(包括核心网和RAN)的全部优势。
与上一代产品相比,集成vRAN加速功能的英特尔第四代至强可扩展处理器在vRAN效能方面实现了两倍提升,而使用功耗可以降低20%。此外,Agilex 7 FPGA FPGA可以加速vRAN或其他工作负载。
英特尔Agilex 7 FPGA AGI 041设备将支持下一代400G基础设施加速解决方案。AGI 041设备为400G 基础设施处理器(IPU)和网络解决方案提供了恰到好处的容量、能效和性能。
此外,英特尔eASIC结构化ASIC能够使客户在400G基础设施解决方案中进一步降低成本和功耗。对于网络工作负载,与FPGA相比,N5X080设备能够把核心功耗降低多达60%;与传统ASIC相比,能够将原型设计时间减少至原来的一半。
如今业界对节能减碳和可持续发展的需求越发强烈,vRAN硬件基础设施最重要的是能耗。英特尔基础设施电源管理器平台套件可以节省30%的功耗。
英特尔与SK电信开展合作,开发了用于5G核心网的英特尔基础设施电源管理器参考软件,该软件将运行时CPU平均能耗节省提升30%。
vRAN不会一蹴而就,而是持续发生。英特尔的目标是推动RAN的变革,与生态伙伴及客户合作,为通信服务提供商在网络构建中提供了可编程性和可升级性,从而使其能够交付全新功能及服务。
通用芯片是虚拟化网络的基石
在迈向现代化网络架构方面,芯片扮演着重要角色。在英特尔技术专家看来,通用芯片的性能可以跟专用芯片相媲美,而且专用芯片的设计、开发及生产时间会更长,无法像通用芯片可以通过软件化来更快推向市场。
十多年前,几乎没有任何无线网络能够在通用可编程服务器上运行以软件形式存在的核心网。而英特尔设计的服务器和软件正在助力网络核心虚拟化,并使其以软件的形式在通用服务器上运行。早在2020年,这种虚拟化核心网就已约占总部署量的一半,正在实现软件定义网络的愿景。
通常成本与部署量存在一个对应关系,而采用通用标准的服务器,相关的成本会降低很多。以前独立设备制造商大多采用定制化的芯片和专门设计的机器,这个硬件成本比标准服务器更高。
标准服务器的建设成本和运营成本相比比较低,而且软硬件升级方便,这样通信服务提供商提供全新服务也更加富有弹性、更有效率。
通用芯片还有一个好处——全虚拟化。不管是基站还是核心网,从边缘到云,英特尔架构可以实现端到端的云原生虚拟化。
英特尔通过第四代英特尔至强可扩展处理器在业内首次实现了把5G用户平面功能(UPF)工作负载性能提升至1Tbps,带来了巨大的性能突破。
有报告显示,预计到今年年底,虚拟化核心网将占总核心网部署量的90%以上,几乎所有已知虚拟化网络服务器都运行在英特尔的CPU上面。
展望未来,虚拟化网络是一个划时代的改变。虽然运营商也在积极拥抱这种趋势,但是他们在vRAN、虚拟化、云原生等方面缺乏相应的人才和技术能力。
针对这种情况,英特尔联合合作伙伴打造完整的生态,参与相关架构标准制定,基于软硬件解决方案,持续推动跟供应商、集成商和生态伙伴的合作,帮助他们取得成功。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。