康普北亚区技术总监吴健
随着带宽、容量和较低延迟的需求不断增长,推动了向更快网络速度的迁移。因此每一年,对于大规模云数据中心的适应和生存能力都是一场考验。在过去几年中,数据中心的链路速度从25G/100G增加到了100G/400G。每次实现更进一步的带宽飞跃之后,都会出现短暂的停顿,随后数据中心负责人就需要为下一次飞跃做准备。当前,数据中心正致力于跃升至400G。对于数据中心经理而言,关键的考量之一就是何种光通讯技术最合适。
随着光器件制造商都试图在数据中心领域占据领先地位,成本和性能将推动400G光通讯市场的发展。2017年,CFP8成为用于核心路由器和DWDM传输接口的第一代400GE模块。该模块尺寸略小于CFP2,光学器件支持CDAUI-16(16x25G NRZ)或CDAUI-8(8x50G PAM4)电气I/O。最近,业界关注重点已转移到第二代400GE模块:QSFP-DD和OSFP。这些模块只有拇指大小,专门面向高端口密度数据中心交换机,可通过32x400GE端口,在单机架中实现12.8Tbps吞吐量,且仅支持CDAUI-8(8x50G PAM4)电气I/O。
尽管CFP8、QSFP-DD和OSFP均为热插拔式,但并非所有400GE收发器模块都如此,其中一些直接安装在主机印刷电路板上。这些嵌入式收发器的PCB走线非常短,可实现低功耗和高端口密度。尽管嵌入式光学器件具有更高的带宽密度和每通道速率,但对于400GE,因其更易于维护,并可带来按需付费的成本效益,以太网行业仍青睐可插拔式光学器件。
对于行业而言,向400G的跃迁是数据中心发展道路上的又一个里程碑。MSA(Multi-source Agreement)工作组已经基于8个100G收发器开展800G的研究。作为800G Pluggable MSA工作组的成员,康普正在与其他IEEE成员合作,研究相关的解决方案,以支持基于多模光纤的每波长100G服务器连接。研究正在进行中,相关方案计划于2021年投入市场,随后可能在2024年推出1.6T计划。 尽管在向更高速度迁移过程中涉及的诸多细节令人怯步,但却也有助于更客观地审视这一进程。随着数据中心服务的发展,存储和服务器的速度也必须提高。要支持更高的速度,就需要合适的传输介质。在选择最能满足网络需求的光学模块时,我们需要有一种“以终为始”的长远目光。因为您对所需的服务和交付这些服务的预测越准确,网络就越能更好地支持全新及未来的应用。
好文章,需要你的鼓励
Anthropic发布了面向成本敏感用户的Claude Haiku 4.5大语言模型,定价为每百万输入令牌1美元,输出令牌5美元,比旗舰版Sonnet 4.5便宜三倍。该模型采用混合推理架构,可根据需求调整计算资源,支持多模态输入最多20万令牌。在八项基准测试中,性能仅比Sonnet 4.5低不到10%,但在编程和数学任务上超越了前代Sonnet 4。模型响应速度比Sonnet 4快两倍以上,适用于客服聊天机器人等低延迟应用场景。
中科院微电子研究所团队揭示深度学习中感知优化与质量评估存在意外不对称现象。研究发现评估性能优秀的模型在训练指导中效果有限,对抗性训练具主导作用,传统卷积网络在某些场景仍具优势。这项发现颠覆了"评估性能等同于优化能力"的传统认知,为AI图像处理技术改进提供新方向。
英国初创公司Nscale将为微软建设四个AI数据中心,总计部署约20万个GPU,合同价值高达240亿美元。首个数据中心将于明年在葡萄牙开建,配备1.26万个GPU。德州数据中心规模最大,将部署10.4万个GPU,容量从240兆瓦扩展至1.2吉瓦。所有设施将采用英伟达最新Blackwell Ultra显卡。
香港科技大学研究团队开发了MOSS-ChatV视频AI系统,通过创新的"过程推理奖励"机制解决了现有视频AI推理过程不一致的问题。该系统不仅能准确预测视频中的未来事件,还能提供清晰的推理解释。研究构建了MOSS-Video数据集,采用动态时间规整算法训练模型,在多个视频理解任务上取得显著性能提升,为视频AI的可解释性发展开辟了新方向。