6月27日,2024信息通信业“新质推荐”系列发布在2024MWC上海期间正式发布,新华三智算网络解决方案荣获“新质推荐”——2024年最佳开放智算网络创新方案。
大模型时代对算力的需求永无止境,大规模智算中心建设如火如荼。对企业而言,如何博各家之所长,构建出多元融合的智算体系,是赢得未来竞争、享受智算红利的关键所在。面对网算之间互相协同推进的发展态势,新华三集团在“多元可靠联接、场景化网络调优、异构算网联动”等方面加速突破,积极探索打通异构算力的开放网络,推出“智算网络解决方案”, 满足不同场景、不同规模的智算中心网络建设需求,全面增强网络对于多元异构算力的承载能力。
首先,作为业界最全产品布局支持全模型组网,新华三拥有支持200G/400G/800G不同端口密度且形态丰富的交换机产品,支持单框单层、盒-盒两层、框-盒两层等多种灵活组网架构,提供了开放性、兼容性、扩展性、稳定性极强的网络环境和端到端异构互联保障。其次,全局负载均衡带来极致带宽利用率,新华三提出SprayLink端网融合、LBN&DLB、FGLB全局负载均衡、分布式解耦机框DDC架构等在内的负载均衡技术组合,可提高网络带宽利用率至95%,实现全场景智算网络调优。第三,数据面自愈技术实现微秒级故障收敛,针对智算场景中远端链路负载和故障检测以及流量实时调整需求,新华三推出DPSH数据面自愈技术,支持本地或远端链路Down后的流量快速切换,整个流量切换周期从毫秒级降低至微秒级,用户侧对链路故障无感知。最后,算力集群交换机提升智算网络整体可用性:为进一步提升智算网络整体可用性,新华三集团同步推出基于DDC架构(Disaggregated Distributed Chassis分布式解耦机框)的算力集群核心交换机H3C S12500 AI系列,旨在为用户提供更具扩展性、更易运维管理、更具成本效益的分布式解耦机框方案。
作为信息通信产业的洞察者和推动者,通信世界全媒体积极把握行业脉动,特策划了2024年信息通信业“新质推荐”系列发布,旨在激励更多企业投身到新质生产力的开拓创新中。通过本次活动发布不难看出,信息通信领域优秀产品、方案精彩纷呈,尤其在无线通信、算网创新、数字运营等领域,创新产品、前沿技术及解决方案层出不穷,这些优秀的产品和方案将促进信息通信业深度转型升级,助力数字经济繁荣发展。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。