ZDNet至顶网服务器频道 10月08日 新闻消息:智能和互联如今是科技产业的热点“名词”,很多专家都认为智能语音识别技术是未来10年间信息技术领域十大重要的科技发展技术之一,只有在电影中才有的、拥有语言天赋的机器将在不久的未来变成现实,智能语音技术将进入工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。
智能语音目前主要依靠深度学习的技术实现,作为机器学习的一个重要分支,深度学习在于建立、模拟人脑进行分析学习的神经网络,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测,以达到具有人类一样的思考能力。目前,Facebook、Google、IBM、苹果、微软、百度、科大讯飞等均在此方面做了多种尝试。
深度学习技术有很多支撑的计算机算法,而目前最常用的是DNN算法,它能比较好地模拟人脑神经元多层深度传递的过程,解决智能语音中的复杂问题。然而,要模拟人脑绝非易事,人脑的计算能耗比是世界上最快的超级计算机天河2号的200万倍,众所周知,人类大脑大致有1000亿神经元,每个神经元有大约5000个神经突触。要使机器无限接近人类的思考能力意味着要模拟出更多的神经元和神经突触,这就会带来巨大的计算挑战。
迎难而上,某公司宣布要初步实现人类思考能力
即使世界IT巨头都无法彻底解决这一问题,但是某公司依旧宣布要实现基于类人神经网络的认知智能引擎,预期成果是实现世界上第一个中文认知智能计算引擎。目前,该公司已经集结了在认知智能领域最强研究团队,将在知识图谱构建与推理、人工神经网络模拟、人脑原理分析模拟几个方向展开研究。为了抢占国内智能语音市场先机,某公司计划将模拟人脑神经元的1/10,,以期让该公司的智能语音设备拥有初步的人类思考能力。
巧妇能为无米之炊,浪潮巧用GPU实现性能腾飞
要实现人脑神经元的1/10的深度模拟,这也就意味着该公司需要非常高计算性能的高性能计算集群。然而天河二号只有一部,如何设计一套占地面积小、计算性能高、又绿色节能的高性能计算集群成为该公司面临的问题。
针对这一问题,浪潮和该公司合作,利用GPU加速技术为该公司设计构建了一套GPU集群,双方联合设计了针对DNN算法特点的GPU集群并行计算框架,采用了每个计算节点配置双路CPU和4块NVIDIA Tesla K20m GPU,以及一块HCA卡的方案,通过GPU提高计算能力、通过IB网络提速节点之间的通信速度,最终完成GPU集群版的DNN并行算法,大幅减低了DNN的计算时间,从而为该公司下一步的智能语音计划提供助力。
作为中国异构高性能计算技术的领先者,浪潮一直致力于推动GPU和MIC的应用发展和人才培养,推动异构技术的产业生态环境建设。据了解,浪潮已经分别与英特尔和英伟达成立联合并行计算实验室,合作开发优化基于MIC和GPU的并行应用。浪潮-英特尔中国并行计算联合实验室首席工程师张清介绍:“浪潮目前已经建立了一套非常完善的高性能计算集群解决方案,将不仅为用户提供好用的高性能计算集群,还会针对每一个用户的应用特点量身定制集群解决方案,这也就说明未来浪潮将跟用户在应用测试、集群搭建、加速优化等各方面展开合作,把用户的需求看作是浪潮设计构建集群的根本要求。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。