科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算科大讯飞谈深度学习:没那么难也没那么简单

科大讯飞谈深度学习:没那么难也没那么简单

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

在“HPC China 2015结束了,一起聊聊深度学习的那点事!”一文中,笔者曾对深度学习与我们日常生活的关联、深度学习的发展现状,以及其所面临的一些挑战等做过一些探讨。

来源:ZD至顶网服务器频道【原创】 2015年12月7日

关键字: 科大讯飞 深度学习 浪潮 SmartRack

  • 评论
  • 分享微博
  • 分享邮件

在“HPC China 2015结束了,一起聊聊深度学习的那点事!”一文中,笔者曾对深度学习与我们日常生活的关联、深度学习的发展现状,以及其所面临的一些挑战等做过一些探讨。虽然文中也涉及到了一些应用情况,比如百度、科大讯飞等是如何利用深度学习进行语音识别、图像识别方面的研究的,但终究没有深入,为了更好地理解深度学习的方方面面,本文将借着科大讯飞的实际案例,作进一步的探讨。当然,限于笔者水平有限,可能某些方面的表达并不尽如人意,希望谅解。

言归正传,在讲述应用之前,我们先看看科大讯飞公司的背景。根据百度百科的注释,科大讯飞,全名科大讯飞股份有限公司,前身安徽中科大讯飞信息科技有限公司,成立于1999年12月30日,2014年4月18日变更为科大讯飞股份有限公司,专业从事智能语音及语言技术研究、软件及芯片产品开发、语音信息服务及电子政务系统集成。

做深度学习不容易

看得出,科大讯飞的主要业务都是围绕语音来展开的。如果用更好理解的话来阐述,那就是科大讯飞做的就是让机器理解语音,基于此则有很大的想象空间,比如聊天机器人……至于其中有什么难题,都是他们要致力解决的问题。那他们究竟是如何利用语音的?简单而言就是深度学习。这其中涉及到算法、模型、平台,是一个非常复杂的过程。正因为此,做语音识别的只有少数那么几家,毕竟门槛太高了。

科大讯飞谈深度学习:没那么难也没那么简单左:张致江,右:于振华

可能是外行看热闹、内行看门道的原因吧,在被问及此问题时,科大讯飞内核研发中心研发总监于振华倒并没有说这个难、那个难,而是一语切中要害。他说,至于算法、或者编写程序的难度其实都不是很大,我们认为重点可能在于你需要一些研究院的思维去做这件事。听起来跟互联网思维有些相像,技术水平终究是有办法解决的,但思维不改,这事就不太容易做好。

算法、编程这些好解决,那硬件系统或者说平台好搭吗?这个说起来还确实有点难度。在谈及此时,受访嘉宾也一下子打开了话匣子。科大讯飞深度学习平台研发主管张致江表示,要做深度学习并不难,买台机器,弄套相关的软件可能就做起来了,但真要上了一定的规模后,系统的搭建可是有讲究的。

他解释说,首先你需要了解算法,基于算法之上再进行精心的设计,包括怎么样去并行,哪些可以并行,哪些不可以,然后并行需要一些什么样的计算特点,带宽是多大类似这样的东西,以及设计出来之后,这个系统一个节点能够容忍多大的计算量,存储该怎么弄等这些都要考虑在内。总之,搭建系统是一个很复杂的事情,远不像买一台机器那么简单。当然,由此带来的直接结果就是投标、采购时,他们很少关注最低价,而是更多考虑谁提供的解决方案更好、更有利。

其实从以上解释中也不难看出,搞深度学习对人员的要求极高,不仅需要懂硬件、还得懂软件、懂管理、懂运维。以上可以说是宏观层面的分析,要搞深度学习,需要些什么东西。下面再从微观层面看看搞深度学习更亲睐一些什么样的技术。

平台至关重要

首先看看最重要的硬件平台,张致江表示,他们现在用的机器大致分两种,一种是2:4,一种是2:8,其中2代表一台机器中CPU的数量,4和8则代表GPU的数量。之所以用这样的机器,并非出于他们的本意,而是由于当前供应商的机器就是这样设计的。从他们实际应用的角度来看,则更希望有1:4这样的产品出现,因为CPU在其中确实不承担太多的作用,只作为基础的软件运行平台。

对此,此前NVIDIA中国区政府销售总监Tomas He在接受采访时曾表示,基于客户的实际需求,他们也在积极地和相关OEM厂商合作,推出更多可选机型,更好地满足客户的实际需求。 其实相关的深度学习解决方案,或者说更广泛的高性能计算相关解决方案早就不限于单台设备这样的规模,比如浪潮今年2月就一口气发布了5款面向不同应用领域的整机柜服务器,其中就包括针对高性能计算方面的。

那整机柜服务器这样一个产品类别,像科大讯飞之类的用户会用吗?在与笔者的交流中,张致江表示,他们虽然暂时还不会用,但他们十分认可整机柜解决方案这一类别的产品,认为这未来必将是大型数据中心的重要选型之一。他具体解释说,IT设备的功耗优化从最初的芯片到整机,再到整机柜是必然的规律,不过企业最终能否用上这一的机器,主要取决于企业规模和IT管理人员的思维。

话说,笔者曾问过不少行业的用户,而他们所持的观点和张致江基本大同小异,他们均看好整机柜服务器的未来,因为其确实在能耗、管理方面有显著的提升,只不过限于当前规模问题,暂时还不会应用。

他们更看重什么?

话说科大讯飞究竟是一个什么样的应用规模呢?据张致江介绍,当前他们团队在深度学习这块所用的GPU就有400多块(如果以整机柜服务器来量化,确实用不了几个柜子,可能有人对前文所提超大规模数据中心没有太多概念,这里给个参考百度每年的服务器采购量在几万台,用整机柜服务器来量化,数量级以千为单位,这差距显而易见)。似乎看起来已经是一个不小的GPU应用规模,不过于振华的一番话却让笔者有了新的认识。他说,现在的神经网络链接数也就是10的8次方,跟真正的人脑差了近6个数量级,显然这400块是远远满足不了实际需求的,由此也带出了第二个问题的探讨,即除了关注机器中CPU和GPU的配比,做深度计算还关注哪些内容。

从理想的角度出发,做深度学习,无非他们希望计算速度更快、更便宜,而且带宽更大。于振华强调,在6个数量级填满之前,他们对于速度和带宽的追求是永远不会停步的。

但是理性也告诉我们6个数量级,显然不可能是三五年或者短时间内解决的问题,因此,科大讯飞在做的就是做一些局部的突破和发展。比如针对特定领域的相对简单的问题,把它做透。具体来说,张致江表示,一是持续优化训练平台,包括稳定性、可用性以及使用效率等的再提升;二是针对深度学习领域,一些新技术的及时跟进,比如今年提出的STM技术等,这都是我们非常关注的。

采访手记

以深度学习为代表的高性能计算领域近年来确实受到了越来越多人的关注。不可否认,他们所做的事情正在使我们的生活变得更美好,但是同样的他们还在面临技术上存在的一些挑战。可以预见的是包括NVIDIA,以及围绕在其周边的产业伙伴,包括浪潮等正在针对性的做一些解决方案,希望那10的6次方的鸿沟就能够尽快填上。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章