康普北亚区技术总监吴健
更高的带宽和容量需求推动越来越多的光纤部署。15年前,数据中心中大多数光纤主干网络的光纤芯数不超过96芯,且覆盖了各种冗余路由。而如今的光纤芯数则一般为144、288和864,互连线缆以及用于超大规模和大规模云数据中心的线缆正向3456条光纤束迁移。部分光纤制造商如今还提供6912芯的光缆,且7776芯的光纤也已面世。
光纤芯数较多的线缆在管道中占据了宝贵的空间,因弯曲半径有限,较大的线缆直径就会带来性能上的挑战。为解决这些问题,线缆制造厂商正向着可卷曲式带状结构和200微米光纤的方向发展。传统带状光纤其整条线缆有12芯光纤束,而可卷曲式带状光纤则是并行光纤间断断续续地粘结在一起,从而可以卷曲、无需平放。平均而言,基于这种类型的设计可在两英寸的管道内容纳3456条光纤束,而相同的空间内若采用扁平式光纤结构设计,则只能容纳1728条。
200微米光纤保留了标准的125微米包层,与当前的和新兴的光学器件完全兼容。区别在于典型的250微米涂层缩减到了200微米。配合可卷曲式带状光纤使用时,因光纤直径变小,线缆设备制造商就能维持线缆尺寸不变,而光纤数量则可比传统250微米扁平式带状线缆增加一倍。
超大规模数据中心已部署了诸如可卷曲式带状光纤和200微米光纤之类的技术,以满足数据中心间不断增长的连接需求。在数据中心内,叶(LEAF)交换机到服务器的连接距离要短很多,密度要更高,主要考量因素是光模块的投资和运营成本。因此,许多数据中心一直使用的都是基于多模光纤的低成本垂直腔面发射激光器(VCSEL)收发器。其他则采取混搭的方式,即在上层SPINE网状网络层中使用单模,而通过多模将服务器连接到第一层叶(LEAF)交换机。随着越来越多的设备采用400GE,与服务器的50G和100G光纤连接成为标准,网络管理员将需要通过这些方式来权衡成本和性能。
随着向区域数据中心集群发展的趋势持续,对大容量低成本数据中心互连(DCI)链路的需求也日益凸显。全新IEEE标准提供各种低成本的方式,可提供即插即用的点对点部署。用于直接检测的收发器基于传统PAM4(四电平脉冲幅度调制),将能够提供长达40km的链路,同时直接兼容最新的400G数据中心交换机。此外,还有其他一些针对传统DWDM传输链路类似功能的进展。
随着链路距离从40km增加到80km甚至更远,相干光系统能够为远程传输提供更强大的支持,有望占领大多数高速通信市场。相干光学器件克服了色散和偏振色散之类的限制,使其成为较长链路的理想技术选择。传统上,相干光学器件是高度定制化的(且价格昂贵),因此需要定制化的“调制解调器”,这一点与即插即用型光学模块相反。随着技术的进步,相干光解决方案的尺寸有望缩减,且部署成本有望降低。最终,相对成本差异可能会降低到较短链路也能受益于该技术的发展程度。
数据中心向着更高速度的迈进需要循序开展。随着应用程序和服务的发展,存储和服务器的速度也必须提高。采用模块化的方法来处理重复性的定期升级,有助于减少规划和落实更改所需的时间和成本。我们建议采用一种整体的方式,交换机、光学器件和光纤布线应作为一个协同的传输路径。最终,所有这些组件如何协同工作,将决定网络为全新和未来应用提供可靠且有效支持的能力。当今的挑战是400G,未来将会是800G和1.6T。虽然网络技术不断变化,但对高质量光纤基础设施的基本要求将持续。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。