至顶网服务器频道 08月01日 新闻消息: 语音自动识别、语音感知等音频分析是深度学习技术最具落地潜力的领域之一,对其后端系统的性能存在极高要求。针对哈尔滨工业大学深度学习项目中的多媒体音频信息处理等应用,浪潮为其定制了高性能计算解决方案,解决了其在音频分析过程中遇到的噪音干扰信号等问题、提高分析的精准度,让音频分析向着"媲美人脑"的目标不断迈进。

哈尔滨工业大学
音频分析,高性能是关键
语言信息主要包含在语音信号的参数之中,因此准确而迅速地提取语言信号的参数是进行语音信号处理的关键。在当前的音频分析领域,连续语音的分割、大词量语音的识别和识别任何人的语音等方面都是难点,业内尚无有效的解决方案,哈尔滨工业大学(后简称:哈工大)语音实验室希望通过深度学习技术的应用,将这些难题一一化解。
经过多方测试,在后端系统的搭建中,哈工大语音实验室决定采用高性能计算集群解决方案,并搭配GPU计算节点,利用GPU加速卡强大的计算性能来有效的提高其现有的计算能力。然而,在高性能集群搭建过程中,哈工大却遇到了不少挑战。
首当其冲的是如何满足音频分析对高性能的苛刻要求。要实现精准如人脑的音频分析,就需要构建深层神经网络,将深层卷积神经网络(Deep CNN)等技术应用于语音识别声学建模中,模拟人脑神经元和神经突触的信息和数据传输及计算,其需要的计算能力是极其惊人的。音频分析系统的性能越高,也就越能接近于人脑识别的精准度与速度。
与此同时,作为重点项目,哈工大语音实验室的音频分析项目涉及到大量的重要研究数据,运行着关键应用,哈工大语音实验室需要确保音频分析能够长时间安全、稳定的运行,以最大程度上提升分析的效率、避免宝贵分析成果的损失。同时,哈工大语音实验室还希望对高性能集群的各个节点进行准确的监控,降低意外情况发生的几率。
57万亿次的峰值性能 浪潮让音频分析更精准
为建设高性能、高安全、高稳定的高性能集群,哈工大语音实验室与浪潮开展合作,在开放的技术架构下,将计算能力与实际应用相结合,以驱动音频分析的应用价值。在高性能集群的实际搭建过程中,浪潮定制的解决方案采用6台浪潮倚天超算系列产品NF5568M4浪潮SKVM视频切换系统,搭配性能强大的GPU加速卡,以满足音频分析对于高性能的苛刻需求。
运算峰值57万亿次:浪潮NF5568M4与GPU加速计算技术的协同,CPU主要承担其更擅长的逻辑选择、判断跳转和IO通信方面的职责,而GPU则专职计算密集型、高度并行的计算工作,使得计算资源合理的分配,计算力被充分释放,计算性能达到从几倍到几十倍的增长。浪潮采用了先进的56Gb IB高速网络技术,保证集群中所有节点无阻塞、全线速的运行,可充分满足高速互联的需求。在哈工大语音实验室高性能集群建设中,整个集群的双精度浮点运算峰值可达到57万亿次以上,为实验室的音频分析应用提供了的极高性能支撑。
安全稳定的集群管理:浪潮在设计方案时,考虑到集群中节点的监控问题,特别配置了远程视频切换系统,采用专门的SKVM网络,可以准确的监控集群中每个节点的信息,相当于给每个节点安装了一台小型的监控器,保证了集群的安全运行。另外,浪潮还提供了智能的集群管理软件Cluster Engine,管理计算平台上运行的几十款软件,并通过定制化开发,适配用户的应用,构建了一个易用、高效、稳定的超算平台。

浪潮Cluster Engine集群管理软件
领先应用调优服务:浪潮在高性能计算领域拥有深厚积累,拥有一支专业的高性能应用研究分析团队。目前,浪潮已经积累了十余个行业的三百余款软件的应用特征,建立了六十余款典型应用基准算例库,能够提供定制化解决方案和专业的应用调优服务,这些深厚的经验积累帮助哈工大语音实验室提供了领先的调优服务,确保了音频应用的高效能运行。
哈工大语音实验室负责人表示:"语音处理的研究已经经历了将近50年的历史,取得了许多成果,但是如何利用深度学习技术提高语音分析能力依然是崭新的问题。浪潮高效的高性能计算系统为之前复杂的计算问题带来极大的帮助,让研究人员可以专注于音频分析技术的研究,而不用将更多的精力耗费在高性能集群的优化上。此外,浪潮还提供了360°的售后服务,解决了系统的后顾之忧,这也帮助我们将音频分析应用研究保持在国内高校领先水平。"
深度学习
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。