近日,英特尔研究院副总裁、英特尔中国研究院院长宋继强接受记者采访,详细介绍了英特尔神经拟态计算技术的发展现状。
七年磨一剑:从Loihi到Hala Point的飞跃
回溯至2017年,英特尔发布了Loihi神经拟态芯片,标志着其在该领域研究的正式启航。Loihi不仅在芯片中首次实现了生物大脑神经元的模拟,还创新性地将计算逻辑与存储逻辑融为一体,即“存算一体化”。这种设计极大提高了能效比,为后续的研究奠定了坚实基础。历经数年,从Loihi到Hala Point,神经元规模从最初的百万级跃升至十亿级,仅用三年时间就实现了超过10倍的增长,这无疑是神经拟态计算领域的一大里程碑。
最新的Hala Point系统集成了1152个Loihi 2芯片,拥有11.5亿个神经元,神经元规模已达到人脑的1/80。同时,Hala Point的能效比极高,最大功耗2600W,可达到15TOPS的性能。
Loihi 2芯片是Hala Point系统的核心,相较于初代,其在计算密度、速度、互连特性等方面均有显著提升。得益于Intel 4制程技术,晶体管密度和能效比得到了质的飞跃,预示着未来在Intel 3、Intel 18A等更先进制程下,系统规模和效率还将持续突破。宋继强表示,即使保持现有尺寸,未来系统的神经元规模也将实现翻番甚至更多。
应用探索:从机器人到大规模优化
宋继强表示,神经拟态计算适用于对能效和实时性要求高的应用领域,特别适合解决大规模优化问题,如铁路网调度、物流管理等,其能效比传统CPU与GPU方案提升了3000倍。
同时,神经拟态计算也应用于视觉识别、语音识别等AI领域,并在某些任务上实现了百倍以上的能效提升。未来,神经拟态计算有望应用于更广泛的领域,如绿色AI、可持续AI等。
尽管Hala Point规模庞大,但它并非局限于固定的机器人应用。在实际场景中,只需几片Loihi 2芯片就能满足机器人的智能需求。
此外,虽然脑机接口技术与神经拟态计算并非直接绑定,但Loihi系统有能力处理来自脑机接口的信号,为未来应用打开了一扇窗。
在应用生态构建方面,英特尔神经拟态研究社区(INRC)自2018年成立以来,已汇聚200个成员,覆盖了从学术界到产业界,一半的应用研究集中在机器人、无人机等工业领域,通过多模态传感器的输入,实现感知和操控。
INRC不仅促进了神经拟态计算技术的多样化应用探索,还推动了软件堆栈Lava的开发,旨在兼容多种编程框架,支持与CPU、GPU、FPGA等异构计算的协同工作,为开发者提供了更加开放和灵活的环境。
展望未来,三管齐下
虽然神经拟态计算发展迅速,但商业化应用仍面临一些挑战。首先,需要找到适合其优势的应用场景。其次,软件生态尚需进一步完善,以更好地对接科研和产业应用。此外,神经拟态计算也面临器件层面的挑战,需要持续优化硬件架构,以提升性能。总体而言,神经拟态计算正处于快速发展期,未来应用前景广阔。英特尔将继续投入,推动神经拟态计算技术走向商业化,造福人类。
宋继强表示,面对未来,英特尔在神经拟态计算领域采取了“三管齐下”的策略:继续在硬件架构上创新,结合先进制程工艺提升效能;深化软件优化,以应对不断变化的应用需求;并通过INRC拓展应用边界,推动规模化商用。Hala Point不仅是技术实力的展示,更是对神经拟态计算无限可能的展望,预示着一个更高效、更智能时代的到来。
好文章,需要你的鼓励
谷歌深度思维团队开发出名为MolGen的AI系统,能够像经验丰富的化学家一样自主设计全新药物分子。该系统通过学习1000万种化合物数据,在阿尔茨海默病等疾病的药物设计中表现出色,实际合成测试成功率达90%,远超传统方法。这项技术有望将药物研发周期从10-15年缩短至5-8年,成本降低一半,为患者更快获得新药治疗带来希望。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
哈佛医学院和微软公司合作开发了一个能够"听声识病"的AI系统,仅通过分析语音就能预测健康状况,准确率高达92%。该系统基于深度学习技术,能够捕捉声音中与疾病相关的微妙变化,并具备跨语言诊断能力。研究团队已开发出智能手机应用原型,用户只需完成简单语音任务即可获得健康评估,为个性化健康管理开辟了新途径。