ZDNet至顶网服务器频道 10月08日 新闻消息:智能和互联如今是科技产业的热点“名词”,很多专家都认为智能语音识别技术是未来10年间信息技术领域十大重要的科技发展技术之一,只有在电影中才有的、拥有语言天赋的机器将在不久的未来变成现实,智能语音技术将进入工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。
智能语音目前主要依靠深度学习的技术实现,作为机器学习的一个重要分支,深度学习在于建立、模拟人脑进行分析学习的神经网络,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测,以达到具有人类一样的思考能力。目前,Facebook、Google、IBM、苹果、微软、百度、科大讯飞等均在此方面做了多种尝试。
深度学习技术有很多支撑的计算机算法,而目前最常用的是DNN算法,它能比较好地模拟人脑神经元多层深度传递的过程,解决智能语音中的复杂问题。然而,要模拟人脑绝非易事,人脑的计算能耗比是世界上最快的超级计算机天河2号的200万倍,众所周知,人类大脑大致有1000亿神经元,每个神经元有大约5000个神经突触。要使机器无限接近人类的思考能力意味着要模拟出更多的神经元和神经突触,这就会带来巨大的计算挑战。
迎难而上,某公司宣布要初步实现人类思考能力
即使世界IT巨头都无法彻底解决这一问题,但是某公司依旧宣布要实现基于类人神经网络的认知智能引擎,预期成果是实现世界上第一个中文认知智能计算引擎。目前,该公司已经集结了在认知智能领域最强研究团队,将在知识图谱构建与推理、人工神经网络模拟、人脑原理分析模拟几个方向展开研究。为了抢占国内智能语音市场先机,某公司计划将模拟人脑神经元的1/10,,以期让该公司的智能语音设备拥有初步的人类思考能力。
巧妇能为无米之炊,浪潮巧用GPU实现性能腾飞
要实现人脑神经元的1/10的深度模拟,这也就意味着该公司需要非常高计算性能的高性能计算集群。然而天河二号只有一部,如何设计一套占地面积小、计算性能高、又绿色节能的高性能计算集群成为该公司面临的问题。
针对这一问题,浪潮和该公司合作,利用GPU加速技术为该公司设计构建了一套GPU集群,双方联合设计了针对DNN算法特点的GPU集群并行计算框架,采用了每个计算节点配置双路CPU和4块NVIDIA Tesla K20m GPU,以及一块HCA卡的方案,通过GPU提高计算能力、通过IB网络提速节点之间的通信速度,最终完成GPU集群版的DNN并行算法,大幅减低了DNN的计算时间,从而为该公司下一步的智能语音计划提供助力。
作为中国异构高性能计算技术的领先者,浪潮一直致力于推动GPU和MIC的应用发展和人才培养,推动异构技术的产业生态环境建设。据了解,浪潮已经分别与英特尔和英伟达成立联合并行计算实验室,合作开发优化基于MIC和GPU的并行应用。浪潮-英特尔中国并行计算联合实验室首席工程师张清介绍:“浪潮目前已经建立了一套非常完善的高性能计算集群解决方案,将不仅为用户提供好用的高性能计算集群,还会针对每一个用户的应用特点量身定制集群解决方案,这也就说明未来浪潮将跟用户在应用测试、集群搭建、加速优化等各方面展开合作,把用户的需求看作是浪潮设计构建集群的根本要求。”
好文章,需要你的鼓励
这项研究揭示了大语言模型在学习推理时对噪声奖励的惊人适应力。研究表明,即使有40%的奖励信号被故意颠倒,Qwen-2.5-7B模型仍能将数学题准确率从5%提升至72%。更惊人的是,仅奖励模型使用关键推理词组(如"首先,我需要..."),而不验证答案正确性,也能达到70%以上的准确率。研究者提出的推理模式奖励(RPR)不仅能让模型在数学任务中表现出色,还能有效校准开放性任务中的噪声奖励模型,提升较小模型的推理能力。这表明大模型在预训练阶段已掌握了推理能力,强化学习主要帮助它探索有效的推理模式。
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
Yale大学自然语言处理实验室研发的Table-R1模型突破性地将推理时间缩放技术应用于表格推理任务。研究团队通过两种方法提升模型能力:从DeepSeek-R1模型的推理过程中学习,以及利用可验证奖励进行强化学习。实验表明,即使使用仅有7B参数的模型,Table-R1-Zero也能在13个表格推理基准测试中媲美甚至超越GPT-4.1等大型模型。该研究不仅证明了中小规模模型通过适当训练也能实现出色表现,还为数据分析、科学研究和决策支持系统等实际应用提供了新可能。