康普北亚区技术总监吴健
随着带宽、容量和较低延迟的需求不断增长,推动了向更快网络速度的迁移。因此每一年,对于大规模云数据中心的适应和生存能力都是一场考验。当前,100G光学器件正大量涌入市场,预计明年也会迎来400G。尽管如此,数据流量仍在持续增加,数据中心面临的压力将有增无减。
数据中心的能力由服务器、交换机和连接因素决定,三者相互制约与平衡,同时也推动着彼此向着更快、更低成本的方向发展。多年来,交换技术一直是主要的驱动力。随着博通StrataXGS Tomahawk 3的推出,数据中心管理人员现在可以将交换和路由速度提高到12.8Tbps,并将每端口成本降低75%。那现在的限制因素是CPU吗?其实不然。今年年初,NVIDIA推出了用于服务器的全新Ampere架构芯片。事实证明,游戏领域使用的处理器非常适合处理人工智能(AI)和机器学习(ML)所需的训练和推理。那么限制因素是什么呢?
随着交换机和服务器向着支持400G和800G的方向不断发展,保持网络平衡的压力就转移到了物理层。2017年批准的IEEE 802.3bs标准为200G和400G以太网铺平了道路。有关800G及以上的带宽评估工作,IEEE最近才刚完成。考虑到开发和采用新标准所需的时间,进度可能已有所滞后。随着行业致力于向着400G到800G,再到1.2 Tb乃至更高带宽跃进,布线和光学OEM也一直在奋力前行。以下,是我们看到的一些发展趋势。
首先,服务器的配置和布线架构正在不断升级。聚合交换机从机架的顶部(TOR)正向中间行(MOR)转移,并通过综合布线配线架连接到交换机端口。如今,若数据中心需要迁移到更高的速度,只需简单地替换服务器跳线,而无需替换原本更长的交换机到交换机的主干链路。采用这种结构化的布线设计,也就无需在交换机和服务器之间安装并管理192条有源光缆(Active Optical Cable)。
可插拔光模块的全新设计为网络设计师提供了更多可选的工具,其中包括支持400G的QSFP-DD和OSFP。两种外形上均具有8倍通道,光学器件可提供8个50G PAM4。在32端口配置中部署时,QSFP-DD和OSFP模块可在1RU设备中实现12.8 Tbps。OSFP和QSFP-DD尺寸支持当前的400G光模块和下一代800G光模块。使用800G光纤,交换机将达到每1U 25.6Tbps。
还有更多的连接器选项可支持400G短距离MMF(多模光纤)模块。400GBASE-SR8标准下,可使用24芯MPO连接器(适用于传统应用)或单行16芯MPO连接器。单行MPO16是早期云规模服务器连接的首选。另一种选择是400GBASE-SR4.2,它使用具有双向信令的单行MPO12,非常适用于交换机到交换机的连接。IEEE802.3 400GbaseSR4.2是首个在MMF上利用双向信令的IEEE标准,它引入了OM5多模光纤。OM5光纤扩展了对BiDi等应用的多波长支持,使网络设计人员能够实现比OM4多50%的传输距离。
业界预测,未来两年内将需要用到800G光学器件。800G可插拔MSA已于2019年9月面世,可助力开发新应用,包括适用于60至100米跨度的低成本8x100G SR多模模块。其目标是提供一种早期低成本800G SR8解决方案,使数据中心能够支持低成本服务器应用。可插拔式800G将支持更高的交换机基数,以及更低的单机架服务器数量。
同时,IEEE 802.3db工作组正在研究针对100G/波长的低成本VCSEL解决方案,并证明了在OM4 MMF上达到100米的可行性。如果成功,这项工作就能将服务器连接从机架内DAC转换为MOR/EOR高密度交换机。它将提供低成本的光学连接,并能够为传统MMF提供更长期的应用支持。
市场瞬息万变,未来发展的速度还会更快。好消息是,从标准机构到行业,已经取得了前景可期的重大进展,有望助力数据中心升级到400G和800G。但是,消除技术障碍也只是克服了一半的挑战,另一半的挑战在于把握时机。每两到三年就是一个更新周期,新技术也在加速面世,运营商很难准确判断合适的过渡时间,一旦发生误判,成本就会更高。
业界在不断发展。像康普这样的技术合作伙伴能够帮助您应对不断变化的形势,并为您提供最符合您长期利益的决策建议。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。