在日益多样化的使用场景中,企业和消费者对移动数据和服务的需求呈指数级增长,这也促使全球各地的通信服务提供商开始重新定义无线网络的架构。传统的专用硬件正在被基于软件的完全虚拟化架构所取代,因为这些基于软件的架构大大提高了无线接入网(RAN)的可扩展性和灵活性。
在这种新兴范式下,通信服务提供商可以在当前服务模式的基础上进一步创新,以迈向可以产生新收益流的云原生服务。然而实现下一代移动服务所需的规模、灵活性和敏捷性是整个行业面临的巨大挑战,但也有一个独特的解决方案:基于通用处理器的网络虚拟化。
通过第四代英特尔®至强®可扩展处理器实现vRAN最大化的性能和能效
第四代英特尔®至强®可扩展处理器旨在驱动云就绪的虚拟无线接入网(vRAN)。与第三代英特尔®至强®可扩展处理器相比,这些处理器将提供高达两倍的性能1而不增加能耗。这将为通信服务提供商的vRAN提供高达两倍的每瓦性能,解决他们在性能、扩展和能效方面遇到的挑战。
2023年,我们还将推出带有英特尔® vRAN Boost的第四代英特尔®至强®可扩展处理器。
英特尔® vRAN Boost把vRAN加速全面地集成到英特尔®至强®系统集成芯片中,使用户不再需要任何外部加速卡。通过降低vRAN的组件要求,带有英特尔® vRAN Boost的第四代英特尔®至强®可扩展处理器可为通信服务提供商带来非常简化的vRAN解决方案:
• 降低系统复杂性
• 降低物料成本和板卡复杂性
• 降低总体拥有成本
• 降低供应链复杂性
通过省去外部的vRAN加速,带有英特尔® vRAN Boost的第四代英特尔®至强®可扩展处理器将帮助服务提供商把vRAN的计算能耗降低约20%2,这已超过第四代英特尔®至强®平台每瓦性能的优势。
此外,所有第四代英特尔®至强®可扩展处理器都具备强大的功能,可针对数据包和信号处理、人工智能和机器学习、动态电源管理和基于微服务的编排来优化工作负载性能。
为通信服务提供商提升灵活性并增加选择
通过第四代英特尔®至强®可扩展处理器系列,英特尔继续为通信服务提供商提升灵活性并增加选择。所有第四代处理器都是针脚兼容,OEM厂商能够在不同的工作负载情况下使用单个通用设计。英特尔还提供开源软件和驱动程序,它们可以兼容O-RAN联盟针对vRAN加速功能的加速抽象层(AAL)API。
作为处理器的补充,英特尔继续为vRAN提供优化且可扩展的FlexRAN™参考软件。该软件包括一套全面的功能,可支持广泛的5G部署,包括6GHz以下频段、大规模MIMO、毫米波和专用无线网。此外,面向vRAN的FlexRAN™参考软件通过加速抽象层API与vRAN加速器软件预先集成。目前在第三代英特尔®至强®可扩展处理器上运行的版本可继续适用于第四代英特尔®至强®可扩展处理器,实现轻松升级。
英特尔®至强®平台的可扩展性和灵活性
通信服务提供商通过利用英特尔®至强®可扩展处理器对网络进行端到端的虚拟化,从而获得了融合的服务优势,可以在通用平台上灵活地运行所有核心、边缘和RAN的工作负载。同样,第四代英特尔®至强®平台在广泛的RAN基础设施部署中具有高度可扩展性,包括分布式、集中式和云环境中的宏蜂窝、微蜂窝和小蜂窝基站。
这种高扩展性大大提高了硬件开发的投资回报,因为单个设计可以在整个网络上重复使用。与此同时,软件的可移植性使相同的软件能够在英特尔®至强®可扩展处理器的全系列上运行而无需做任何更改,从而显著提高软件的投资回报。
随着网络的全面虚拟化,真正的软硬件解耦成为了现实。运营商可以从不同的供应商处购买同类最佳的硬件和软件,从RAN堆栈的不同层面等非常细分的方面去选择供应商。这将组成最优的解决方案,在节省网络基础设施成本的同时,还节约了电力并激发更多的创新。
通过安全的容器化微服务将云原生功能添加到vRAN,这将可以带来网络规模化效应。这使通信服务提供商可以在任何地方部署可组合的应用程序,并充分利用云服务提供商的基础设施。通过利用英特尔®至强®集成的AI加速并结合生态系统的最新AI技术,通信服务提供商可以动态地重新配置网络、优化频谱分配、控制流量等,以此节省成本并更好地利用基础设施。基于英特尔®至强®可扩展处理器的智能云原生网络可以帮助通信服务提供商提升用户体验、快速提供新服务,自动部署服务,并最大限度地提高能效。
英特尔助力RAN各个层面的虚拟化
vRAN才刚刚开始展示其强大的潜力,而英特尔在该领域并非新手,从一开始就投入该领域的研究。多年来,英特尔取得了丰硕的研发成果、生态系统协作、商业部署、成功的经验以及持续而有价值的客户反馈,这些都已融入进英特尔经市场验证的vRAN产品和FlexRAN™参考软件。这也是为什么目前几乎所有vRAN的部署都采用了英特尔的技术。
带有英特尔® vRAN Boost的第四代英特尔®至强®可扩展处理器助力了行业的进步,使通信服务提供商能够创建更加灵活、可扩展的vRAN网络架构,从而实现高性能和高能效。英特尔将于2023年把这款产品推向市场,并继续致力于推动行业走向完全虚拟化网络的进程。
欢迎阅读我们的白皮书,其中详尽描述了第一层RAN的虚拟化将如何释放vRAN / OpenRAN的全部潜力。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。