去年年底接掌英特尔实验室的Rich Uhlig,畅谈英特尔公司对于未来计算的发展愿景。
英特尔公司一直在努力寻找让CPU更快、更高效的途径,出色的表现也使其赢得了“芯片巨头”这一美誉。然而,随着摩尔定律的终结,英特尔公司开始探索利用英特尔实验室创建新型扩展计算架构的方法。
量子计算正是其中的一项核心举措。英特尔实验室一直在测试自己的49量子比特处理器。除此之外,英特尔实验室也在神经形态计算(一种模拟结构,希望通过芯片中的人工神经网络模拟一部分人脑功能)以及概率计算也被纳入日程,旨在帮助用户量化人工智能应用所带来的一系列不确定性需求。
自2018年12月以来,Rich Uhlig一直担任英特尔实验室主管。虽然看似时间不长,但他自1996年加入英特尔之后就一直为芯片巨头效力(最近晋升为英特尔实验室系统与软件研究主管),因此他对于各项基础性工作显然相当熟悉。我们与Uhlig讨论了量子、神经形态与概率计算,并询问这些系统将如何帮助我们管理AI,包括这些技术可能带来的衍生成果中又有哪些值得引起我们的关注。
记者:根据英特尔公司的量子计算时间表,我们目前处于“系统阶段”。这到底是什么意思,我们又将如何从系统阶段过渡至商业阶段?
Rich Uhlig: 在英特尔公司,我们专注于开发具备商业可行性的量子计算机,这要求我们在量子比特方面提高到新的水平。我们已经成功制造出一块49量子比特的超导芯片,这意味着我们能够着手将量子处理单元(简称QPU)集成到系统当中,并利用这套系统构建一切需要的元件,最终实现各量子比特之间的同时协作以改善效率及可扩展性。我们正在努力创建一套真正可行的量子系统,确保其能够由实验室环境下的50量子比特扩展至商业系统所需要的数百万量子比特——是的,实际可用最重要,而非专注于量子比特的一点提升进行大肆宣传。
那么,利用神经形态计算模拟人类大脑的作法,能够带来怎样的好处?
人类大脑的魅力,在于它能够实时处理高度复杂的信息,而且能量消耗很低。我们的目标不一定在于模仿大脑,而要希望了解是哪些规则为大脑带来了如此令人印象深刻的高效功能,而后将这些规则应用于我们的芯片构建设计。目前,众多关于细粒度并行性、动态计算、信息时间编码、事件驱动型操作等规则给我们带来了重要启示,让我们意识到这些新我有望在计算系统的功能性与效率性方面实现双重突破,最终打造出新的架构与算法。
那么,为什么概率计算能够与量子及神经形态计算一道,得到英特尔公司的高度关注?
概率计算使我们能够处理周遭环境中自然数据的不确定性,并通过理解数据与模型中的不确定性来预测世界上的事件。只有当我们了解如何利用概率分布模拟周围的世界时,人类才能真正预测实际场景中接下来将会发生什么,以及这一切对我们行动造成的影响。通过利用概率方法增强深度学习,由此带来的不确定性测量能力将打开理解AI系统如何做出决策的大门。最终,这将帮助我们解决AI系统中常见的偏见等重要问题。
我们对于概率计算的研究,其核心实际上在于建立一种能够评估下一波AI方案性能的新方法——即一种能够对“噪声”数据进行实时评估的方法。第一波AI系统仍然主要关注逻辑,即预编程规则。但第二波AI将旨在提高认知水平与感知信息的能力,包括利用神经网络随时间推移进行不断学习。然而,这些解决方案尚无法做到人类在接触真实世界时自然而然就能完成的事情。它们无法根据手头的现有数据考量多种潜在情景,同时也无法充分利用手头没有直接提供的潜在背景数据。
要解释这一概念的重要性,我想举个例子。假设您正在开车并看到一个足球滚到街上,这时大家最直接、最自然的反应肯定是尽快制动,因为可以想象很可能有个孩子会追着球很快冲到街上,且时间间隔不会太长。这就是人类的延拓分析能力,目前的AI显然不具备这种思维方式。
根据自然数据带来的经验与人类行为推断,驾驶员会决定停车。但是,传统计算机恐怕无法实时给出相同的结论,因为目前的系统还没有立足编程层面有效挖掘噪声数据并根据环境认知做出决策。然而,对于自动驾驶这样的实际应用,其中可能需要一套概率系统以供调用,从而快速评估情况并立即采取行动(停下车辆)。只有这样的系统,才能真正安全地被应用于现实场景。
我们是否需要新型设备才能承载这些神经形态与概率计算?如果是,那么这些设备需要具备哪些属性?
就目前来讲,我们相信受到这些新型计算范例启发的创新成果有望为使用现有工艺技术制造出的芯片提供有意义的指导。但在未来几年,如果要继续保持发展,我们必然需要设备层级的进步。以神经形态计算为例,我们将需要更为密集的存储器技术以及具备非易失性塑性动力学的新材料。而在概率计算方面,则要求我们扩展现有AI解决方案以纳入能够以概率分布方式进行计算的新型、有效的实现系统。面对神经形态与概率计算,要达成效率提升这一最终目标,我们可能需要使用包含物理噪声源的设备与电路以直接体现其中的随机动态属性。
英特尔实验室主管Rich Uhlig
这些新型设备是否会影响到英特尔公司所关注的计算类型,或者指导未来新设备中采用的计算类型?
这其实会以一种相互作用的方式体现。设备技术与摩尔定律的发展使得新型架构成为可能,而新架构中的理念也将推动市场对于未来设备技术的需求。然而,二者面临的真正驱动力,在于我们立足现实世界收集指数级增长中的客观新数据的要求。这些数据的收集、存储与分析等需要配合新的计算模型,并有可能给我们所有人带来令人难以置信的新奇体验。
AI的未来是否在于脉冲神经网络?
脉冲神经网络(简称SNN)可以说是当今用于深度学习的人工神经网络的天然继承者。通过将时间动态直接集成至操作当中,脉冲神经网络非常适合处理真实感官数据,例如声音或视频,特别是在需要快速响应与适应的情况之下。从算法的角度来看,脉冲神经网络为构建神经网络提供了一种原则性方法,其能够及时处理事件,例如支持一次性学习或做出决策。而从实现角度来看,脉冲机制的存在则允许神经形态架构利用这些算法的高稀疏度活动提高能效。这些优势将为边缘设备提供巨大的价值——包括在制造车间、自动驾驶车辆或者机器人等应用场景当中,它们所面对的不可预测的数据需要得到实时处理与消化。
在您看来,能够为大多数人带来实际收益的第一种量子与神经形态计算应用会是什么?
量子计算能够解决传统计算机需要数月甚至数年才能解决的问题,甚至攻克不少目前完全无法解决的问题。其中可能包括药物研发、财务建模以及气候预测等等。而在神经形态芯片方面,第一种应用可能来自那些需要实时定制训练功能的应用,具体取决于特定设备所处的实际环境。举例来说,神经形态芯片可以让语音识别系统得以自主适应具有浓重口音的用户,或者在动态环境下控制机器手臂。
有没有人担心这些计算技术的出现,将导致我们更难理解未来的计算系统究竟如何做出其判断?这些决策的可解释性处于怎样的程度,我们又该如何加以改进?
这确实是个值得关注而且相当活跃的研究领域,您可以将其称为“可解释AI”议题。例如,如果工程师无法清晰阐述某种设备如何或者为什么做出某些行为,那么我们绝对不会允许推出这些可能危及人类安全的方案。我们认为概率计算在这一领域有可能带来一些优势,因为其构建起一套框架,可用于理解答案中的潜在错误。这可能将支撑起更高级别的策略,这些策略将决定系统本身最终如何参与到物理世界中来。
最后一个问题,这项技术的发展是否有可能出现偏差?您最担心其出现怎样的偏差?
与任何一种新兴技术一样,这些前所未有的计算方式当然可能产生意想不到的后果,因为其中既有优势也有缺陷。举例来说,量子计算的一类潜在应用就是破解目前广泛使用的加密算法,这将导致敏感数据直接处于风险当中。虽然我们还没有达成这一目标,但需要强调的是,我们也还远没有开发出能够在后量子计算世界当中继续保护数据安全的强大新型加密技术。另外,同样需要强调的是,AI的进步将真正改变我们与数据的关系以及我们制定决策的具体方式,也将使我们难以判断何时适合将某些决策委托给机器。因此,当下我们面对的真正挑战并不仅仅是让这一切成为现实,而是以理智的方式做出选择。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。