ZDNet至顶网服务器频道 10月08日 新闻消息:智能和互联如今是科技产业的热点“名词”,很多专家都认为智能语音识别技术是未来10年间信息技术领域十大重要的科技发展技术之一,只有在电影中才有的、拥有语言天赋的机器将在不久的未来变成现实,智能语音技术将进入工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。
智能语音目前主要依靠深度学习的技术实现,作为机器学习的一个重要分支,深度学习在于建立、模拟人脑进行分析学习的神经网络,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测,以达到具有人类一样的思考能力。目前,Facebook、Google、IBM、苹果、微软、百度、科大讯飞等均在此方面做了多种尝试。
深度学习技术有很多支撑的计算机算法,而目前最常用的是DNN算法,它能比较好地模拟人脑神经元多层深度传递的过程,解决智能语音中的复杂问题。然而,要模拟人脑绝非易事,人脑的计算能耗比是世界上最快的超级计算机天河2号的200万倍,众所周知,人类大脑大致有1000亿神经元,每个神经元有大约5000个神经突触。要使机器无限接近人类的思考能力意味着要模拟出更多的神经元和神经突触,这就会带来巨大的计算挑战。
迎难而上,某公司宣布要初步实现人类思考能力
即使世界IT巨头都无法彻底解决这一问题,但是某公司依旧宣布要实现基于类人神经网络的认知智能引擎,预期成果是实现世界上第一个中文认知智能计算引擎。目前,该公司已经集结了在认知智能领域最强研究团队,将在知识图谱构建与推理、人工神经网络模拟、人脑原理分析模拟几个方向展开研究。为了抢占国内智能语音市场先机,某公司计划将模拟人脑神经元的1/10,,以期让该公司的智能语音设备拥有初步的人类思考能力。
巧妇能为无米之炊,浪潮巧用GPU实现性能腾飞
要实现人脑神经元的1/10的深度模拟,这也就意味着该公司需要非常高计算性能的高性能计算集群。然而天河二号只有一部,如何设计一套占地面积小、计算性能高、又绿色节能的高性能计算集群成为该公司面临的问题。
针对这一问题,浪潮和该公司合作,利用GPU加速技术为该公司设计构建了一套GPU集群,双方联合设计了针对DNN算法特点的GPU集群并行计算框架,采用了每个计算节点配置双路CPU和4块NVIDIA Tesla K20m GPU,以及一块HCA卡的方案,通过GPU提高计算能力、通过IB网络提速节点之间的通信速度,最终完成GPU集群版的DNN并行算法,大幅减低了DNN的计算时间,从而为该公司下一步的智能语音计划提供助力。
作为中国异构高性能计算技术的领先者,浪潮一直致力于推动GPU和MIC的应用发展和人才培养,推动异构技术的产业生态环境建设。据了解,浪潮已经分别与英特尔和英伟达成立联合并行计算实验室,合作开发优化基于MIC和GPU的并行应用。浪潮-英特尔中国并行计算联合实验室首席工程师张清介绍:“浪潮目前已经建立了一套非常完善的高性能计算集群解决方案,将不仅为用户提供好用的高性能计算集群,还会针对每一个用户的应用特点量身定制集群解决方案,这也就说明未来浪潮将跟用户在应用测试、集群搭建、加速优化等各方面展开合作,把用户的需求看作是浪潮设计构建集群的根本要求。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。