——浅谈多供应商、多运营商网络中的挑战和机遇
康普北亚区技术总监吴健
回望数据中心的发展,过往的数据中心的角色和设计的边界是清晰和明确的。本地服务区域通常会覆盖周边150英里(约240公里)左右。在数据中心内部,计算和存储容量等资源,以及数据中心接入运营商网络的链路都是基于可预测的流量负载而设计的。
这在多租户数据中心(MTDC)中更是如此,其物理位置的设立通常取决于租户对低延迟的要求。例如,对于需要低时延访问的证券交易所来说,更接近该证券交易所的MTDC对于企业而言就更具价值。通常用户的位置定义了网络的边缘,而数据中心的位置则更多地取决于用户对低延迟的要求。但是这一现状正在发生很大的改变。
随着5G和物联网部署速度的加快,催生了一批对超高可靠性、超低时延的网络应用需求。其影响之一就是传统本地服务区域的缩小,从而促使数据中心往网络边缘转移。如今,这两者间的界限,甚至角色与分工都开始变得模糊。
当然,这不完全是新的趋势。近年来,内容提供商在用户侧不断增加资源的部署来支持内容高速缓存,从而优化存储能力并降低延迟。如今其他类型的网络也在效仿这种做法,并已有典型的应用案例。对MTDC而言,当务之急是重新定位,而一直以来被不断下降的ARPU(每用户平均收入)所困扰的运营商也在更加活跃的边缘计算里寻找新的机会。
物联网机器对机器(M2M)时延的要求,以及数十亿联网设备未来产生的海量数据对网络容量提出了更高的要求。换言之,增加网络容量至关重要。然而,可部署的光纤量有限,运营商需寻找其他增加带宽的方法。波分复用可能是解决该问题的方式之一,而另一种方法则是持续缩短数据支持的边界。
缩短数据支持边界的方案有很多。从网络设计的角度来看,运营商需要持续增加数据中心和边缘计算之间东西向的流量,而非依赖更长距离的南北向传输。同时该方案需要更多的并行链路,以满足对可靠性的更高要求。
无论如何,网络都需要不断地增加边缘处部署的资源,从而提升本地数据处理能力。这不仅能够让本地设备满足超高可靠、低时延的需求,还能有效节约带宽。
上述边缘处所发生的变化,以及缩短数据支持边界,扩大网络融合和增加边缘处部署的资源都将影响MDTC的设计,并在一定程度上影响其扮演的角色。随着网络服务区的缩小,部署于边缘的资源将能够比传统的区域性MTDC方案更好地应对高性能要求。此外,对更低成本、更小占用空间和更小型服务区域的需求也将进一步对当前MTDC业务模式带来挑战。
随着运营商和内容服务提供商努力适应这一新的环境,云将发挥关键性作用。通信服务提供商将更青睐大型云部署,而小型云将在边缘占据主导地位。其主要挑战在于,如何在多个地理位置上扩展分布式云结构,同时提供服务自动化并保持网络安全控制。
虽然穿梭于边缘和核心数据中心之间的数据流量类型将发生变化,但其对当前软件和控制系统的影响将很有限,而基础设施尤其是光纤部署量亟须改变。边缘到核心的流量将带动高速以太网的需求,同时随着不断升级的高密度光纤和高密度配线系统的出现,光纤将成为制胜关键。
未来,伴随大容量、长距离传输需求,可大幅度提升带宽的波分复用应用,包括粗波分复用(CWDM)和密集波分复用(DWDM)等,一定将发挥重要作用。
需要注意的是,这些新一代网络的建设并非从零开始。运营商将以现有网络为基础进行建设,从而形成一个新旧混用的混合型多供应商系统。网络基础设施的情况复杂,要建成完善的体系任重道远。但在建成之后,将会呈现一个更高效、更简化,并能够不断成长且适应未来需求的新型网络。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。