人工智能已经又70多年的发展历史了。目前我们所处的阶段是以深度学习为主导的AI2.0阶段,为了满足更高的要求以及实现更全面的智能,人工智能正在往更高的阶段AI3.0迈进。如何实现这一跨越式发展?近期,英特尔中国研究院院长宋继强的署名文章《坚持坚持科研的长期主义 推动AI向3.0时代跃迁》为我们指明了方向。
目前的人工智能都遇到了哪些挑战?首当其冲的是高能耗问题。如果按照现在AI模型的训练方式,能源的消耗是不可持续的。在国外有一个研究显示,一个大型AI的训练模式相当于5台美式轿车整个生命周期的碳排放。“如果按照这个模式发展下去,对地球生态的破坏是不可逆的,”宋继强表示。
其次是对大数据的过度依赖。大数据正在变成稀缺资源,很多实际案例并不能提供大数据作为AI的训练支撑。最后随着处理的问题越来越复杂,我们对AI的算力需求也在不断提升。
目前纵观整个人工智能历程,可以分为三个阶段。宋继强在文中写到, AI第一波浪潮,是通过由人制定的各种规则去做理论性的推理。虽然在推理方面表现不俗,但仅限于几个严格定义的问题,且没有学习能力,无法处理不确定性问题。而真正令AI渐入佳境的,则源于由深度学习所触发的AI第二波浪潮。互联网、移动互联网等所产生的海量数据,给机器提供了学习、挖掘和试错的对象,让系统得以自发地找到“规律”,作出预测、判断和决策。
未来,我们要进入的是AI3.0时代,这是一个真正的智能系统,是环境自适应性的“自然智能”。首先,它不仅能处理确定性的问题,还能处理不确定性问题。第二,它不仅能够做事,还必须是可解释的。第三,它不完全依靠大数据驱动,即便少量数据也可实现更高效能的持续学习。第四,它应具备高可靠性,或者说符合人类给它设定的伦理道德。
要迈入新一代人工智能时代,科研机构、科技公司们都在做出不懈的努力。宋继强也表示:“神经拟态计算最有可能开辟出一条从AI 2.0到AI 3.0的崭新赛道”。神经拟态计算是颠覆原有的“软件+硬件”的一种全新计算方式,模拟人脑的神经结构和运行方式,将计算和存储融合一体。
之所以被认为是下一代AI的主流计算方式,首先要从神经拟态计算最独特的脉冲神经网络(SNNs)说起。这是一种特殊的网络,可以模仿人脑中自然神经元的方式将计算模块进行重新分布。 SNN中每一个“神经元”都可以被单独激发,并向网络中其他神经元发送脉冲信号,这样会直接改变神经元的电学状态。
类似于大脑的突触,这样的方式所需要的能耗非常低,因为它可以根据应用的需求,让只需要工作的“神经元”启动,可以实现将标准模态的输入互相整合。另外,通过对信号内部的信息和发送时机进行编码,以及在人工神经元突触之间进行动态映射,SNN就能够启动自然学习的过程。这也就是说神经拟态计算并不依赖于大数据,仅通过少量样本就可以进行自学习。
想要进一步推动神经拟态计算的发展,其中一个很重要的方向就是能够找出适合神经拟态计算完成的应用,引起产业跟随。英特尔在这方面已经开始了很多动作:建立了INRC(英特尔神经拟态计算社区),聚集了全球学术、政府、行业机构,共同解决神经拟态计算的广泛挑战。已经有包括埃森哲、空中客车、通用电气、日立在内的企业成员加入,在过去一年内,INRC的规模扩大了两倍。
英特尔一直致力于对前沿科技的探索,在神经拟态计算也取得了重大进展。英特尔的Loihi芯片可以识别10种有害气体,并且仅用一个样本训练就可以达到百分之九十多的高准确率。英特尔神经拟态系统Pohoiki Springs,已经拥有1亿神经元的计算能力,相当于一个小型哺乳动物的大脑。
英特尔是科技公司中探索前沿科技的典范,其宏旨是“创造改变世界的技术,造福地球上的每一个人”,推动技术变革,改善全人类的健康和安全。
相信神经拟态计算的未来能够帮助我们进入到新的人工智能时代,为全人类带来福祉,也希望能有更多产学研人士加入到神经拟态计算的研究中去。
好文章,需要你的鼓励
谷歌CEO皮查伊在AI竞赛低谷期坚持"信号降噪"原则,顶住压力加倍投入,最终带领谷歌凭借Gemini系列重夺领先。他坚信AI将超越火与电的革命性影响,通过递归自我改进极大降低创意实现门槛,这场"创造力民主化"浪潮或将解锁80亿人的认知潜能。
浙江大学和吉利汽车研究院联合团队提出的FreeTimeGS是一种创新的动态3D场景重建方法。不同于传统方法,它允许高斯基元在任意时空位置自由出现,并赋予每个基元运动功能,使其能够随时间移动到相邻区域。研究通过4D正则化策略解决了高不透明度基元阻碍优化的问题。在多个数据集测试中,该方法在渲染质量和速度上均大幅超越现有技术,特别是在处理复杂动态场景时,使用单个RTX 4090 GPU能以467 FPS的速度实现1080p实时渲染,为电影制作、游戏和虚拟现实等应用提供了新可能。
李飞飞的World Labs以"空间智能"重新定义AI,专注3D物理世界理解,4个月估值飙至10亿美元,获科技巨头集体押注。她揭示语言无法编码物理世界,而DNA双螺旋等突破性发现都源于三维空间的深度认知。
这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。