至顶网服务器频道 08月01日 新闻消息: 语音自动识别、语音感知等音频分析是深度学习技术最具落地潜力的领域之一,对其后端系统的性能存在极高要求。针对哈尔滨工业大学深度学习项目中的多媒体音频信息处理等应用,浪潮为其定制了高性能计算解决方案,解决了其在音频分析过程中遇到的噪音干扰信号等问题、提高分析的精准度,让音频分析向着"媲美人脑"的目标不断迈进。

哈尔滨工业大学
音频分析,高性能是关键
语言信息主要包含在语音信号的参数之中,因此准确而迅速地提取语言信号的参数是进行语音信号处理的关键。在当前的音频分析领域,连续语音的分割、大词量语音的识别和识别任何人的语音等方面都是难点,业内尚无有效的解决方案,哈尔滨工业大学(后简称:哈工大)语音实验室希望通过深度学习技术的应用,将这些难题一一化解。
经过多方测试,在后端系统的搭建中,哈工大语音实验室决定采用高性能计算集群解决方案,并搭配GPU计算节点,利用GPU加速卡强大的计算性能来有效的提高其现有的计算能力。然而,在高性能集群搭建过程中,哈工大却遇到了不少挑战。
首当其冲的是如何满足音频分析对高性能的苛刻要求。要实现精准如人脑的音频分析,就需要构建深层神经网络,将深层卷积神经网络(Deep CNN)等技术应用于语音识别声学建模中,模拟人脑神经元和神经突触的信息和数据传输及计算,其需要的计算能力是极其惊人的。音频分析系统的性能越高,也就越能接近于人脑识别的精准度与速度。
与此同时,作为重点项目,哈工大语音实验室的音频分析项目涉及到大量的重要研究数据,运行着关键应用,哈工大语音实验室需要确保音频分析能够长时间安全、稳定的运行,以最大程度上提升分析的效率、避免宝贵分析成果的损失。同时,哈工大语音实验室还希望对高性能集群的各个节点进行准确的监控,降低意外情况发生的几率。
57万亿次的峰值性能 浪潮让音频分析更精准
为建设高性能、高安全、高稳定的高性能集群,哈工大语音实验室与浪潮开展合作,在开放的技术架构下,将计算能力与实际应用相结合,以驱动音频分析的应用价值。在高性能集群的实际搭建过程中,浪潮定制的解决方案采用6台浪潮倚天超算系列产品NF5568M4浪潮SKVM视频切换系统,搭配性能强大的GPU加速卡,以满足音频分析对于高性能的苛刻需求。
运算峰值57万亿次:浪潮NF5568M4与GPU加速计算技术的协同,CPU主要承担其更擅长的逻辑选择、判断跳转和IO通信方面的职责,而GPU则专职计算密集型、高度并行的计算工作,使得计算资源合理的分配,计算力被充分释放,计算性能达到从几倍到几十倍的增长。浪潮采用了先进的56Gb IB高速网络技术,保证集群中所有节点无阻塞、全线速的运行,可充分满足高速互联的需求。在哈工大语音实验室高性能集群建设中,整个集群的双精度浮点运算峰值可达到57万亿次以上,为实验室的音频分析应用提供了的极高性能支撑。
安全稳定的集群管理:浪潮在设计方案时,考虑到集群中节点的监控问题,特别配置了远程视频切换系统,采用专门的SKVM网络,可以准确的监控集群中每个节点的信息,相当于给每个节点安装了一台小型的监控器,保证了集群的安全运行。另外,浪潮还提供了智能的集群管理软件Cluster Engine,管理计算平台上运行的几十款软件,并通过定制化开发,适配用户的应用,构建了一个易用、高效、稳定的超算平台。

浪潮Cluster Engine集群管理软件
领先应用调优服务:浪潮在高性能计算领域拥有深厚积累,拥有一支专业的高性能应用研究分析团队。目前,浪潮已经积累了十余个行业的三百余款软件的应用特征,建立了六十余款典型应用基准算例库,能够提供定制化解决方案和专业的应用调优服务,这些深厚的经验积累帮助哈工大语音实验室提供了领先的调优服务,确保了音频应用的高效能运行。
哈工大语音实验室负责人表示:"语音处理的研究已经经历了将近50年的历史,取得了许多成果,但是如何利用深度学习技术提高语音分析能力依然是崭新的问题。浪潮高效的高性能计算系统为之前复杂的计算问题带来极大的帮助,让研究人员可以专注于音频分析技术的研究,而不用将更多的精力耗费在高性能集群的优化上。此外,浪潮还提供了360°的售后服务,解决了系统的后顾之忧,这也帮助我们将音频分析应用研究保持在国内高校领先水平。"
深度学习
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。