第二代研究芯片采用了预生产版本的Intel 4制程工艺,可增长至100万个神经元,并新增开放软件框架,以加速开发者创新和商业化进程
英特尔于2021年9月推出其第二代神经拟态研究芯片Loihi 2,支持新型神经启发算法和应用,同时提供更快的处理能力,更大资源密度和更高能效。(图片来源:英特尔公司)
今天,英特尔推出第二代神经拟态研究芯片Loihi 2以及用于开发神经启发应用的开源软件框架Lava,标志着英特尔在先进神经拟态技术上不断取得进展。
英特尔神经拟态计算实验室总监 Mike Davies 表示:“Loihi 2和Lava软件框架从多年来使用Loihi的合作研究项目中收获洞察。第二代芯片极大地提高了神经拟态处理的速度、可编程性和容量,扩大了在功耗和时延受限的智能计算应用上的用途。英特尔正在开源Lava,以满足在实践中对软件融合、基准测试和跨平台合作的需求,并加快商业可行性的进程。”
神经拟态计算借鉴了神经系统科学取得的洞察,开发出功能更类似大脑的芯片,追求在一系列边缘应用中实现能效、计算速度和学习效率的数量级提升,包括从视觉、语音和手势识别到搜索检索、机器人和约束优化问题。
迄今为止,英特尔及合作伙伴已展示了机械臂、应用神经拟态芯片的人造皮肤和嗅觉传感等应用。
关于Loihi 2:该款研究芯片整合了过去三年使用第一代研究芯片的收获,并充分利用英特尔制程技术和异步时钟设计模式的进展。
洛斯阿拉莫斯国家实验室科学家Gerd J. Kunde提到:“洛斯阿拉莫斯国家实验室的研究人员一直在使用Loihi神经拟态平台来研究量子计算与神经拟态计算之间的权衡,并在芯片级上实现学习流程。这项研究显示了脉冲神经网络和量子退火路径在解决硬优化问题上一些激动人心的等效性。除此之外,我们还证明了之前被认为无法在神经拟态架构上实现的反向传播算法(训练神经网络的基本构建模块)可以在Loihi上高效地实现。我们的团队很高兴能够借助Loihi 2芯片继续进行这项研究。”
关键突破:Loihi 2和Lava为研究人员开发并塑造新的神经启发应用提供了工具,用于实时处理、问题解决、适应和学习。显著的技术亮点包括:
关于英特尔神经拟态研究社区(INRC):英特尔神经拟态研究社区(INRC) 已增加到约 150 个成员机构,今年新增的成员包括福特(Ford)、佐治亚理工学院(Georgia Institute of Technology)、美国西南研究院(SwRI)、美国菲力尔公司(Teledyne FLIR)。新合作伙伴加入了一个由学术团体、政府实验室和行业伙伴组成的强大社区,它们将与英特尔携手推动神经拟态计算商业应用的实际落地。
“Loihi 2和Lava API取得的进展是神经拟态计算的关键一环。下一代神经拟态架构对于埃森哲研究室推动类脑计算机视觉算法至关重要,这些算法用于智能边缘计算,可以对未来的扩展现实头盔或智能移动机器人的开发提供动力。新芯片提供的功能将大大提升超维计算的效率,并提供更高级的片上学习能力,而Lava API为开发人员提供了一个更简单、更流畅的接口来构建神经拟态系统。”—— 埃森哲技术研究院首席研究科学家、创新发展与战略总监Edy Liongosari
商业化之路:先进的神经拟态计算从实验室研究走向商业应用需要“三管齐下”。首先,需要根据算法和应用研究的结果对神经拟态硬件进行持续地迭代改进。其次,还需要开发通用的跨平台软件框架,以便开发人员可以对来自不同开发群体的最佳算法理念进行基准测试、整合和改进;最后,产业界、学术界和政府领域之间要深入合作,建立一个丰富、高效的神经拟态生态系统,以探索近期可实现商业价值的落地。
英特尔今天发布的消息涵盖所有这些领域,将新工具交付到不断壮大的神经拟态生态系统研究人员手中。他们将在此基础上重新思考计算,从而实现智能信息处理方面的突破。
英特尔目前通过神经拟态研究云服务向加入英特尔神经拟态研究社区(INRC)的成员提供两个基于Loihi 2的神经拟态系统:用于早期评估的单芯片系统Oheo Gulch和即将开放的八芯片系统Kapoho Point。Lava 软件框架可在GitHub 上免费下载。Loihi 2和Lava的演示教程将在10月举办的“Intel Innovation”活动中呈现。
[1] 基于2021年9月对PilotNet DNN 推理负载的9层变体在 Loihi 2上作为Sigma-Delta神经网络进行的Lava模拟测试,对比了在Loihi上通过SNN频率编码实施的相同网络。两种芯片的Lava性能模型都基于硅的特性,使用Nx SDK 1.0.0 版作为运行 Ubuntu 20.04.2 版的主机,其中配备了英特尔至强E5-2699 v3 CPU @ 2.30 GHz, 32GB内存。Loihi测试结果使用Nahuku-32系统ncl-ghrd-04。Loihi 2测试结果使用Oheo Gulch系统 ncl-og-04。结果可能会有所不同。
[2]基于核心大小为0.21 mm2 的Loihi 2,最多支持 8192 个神经元,对比了核心尺寸为0.41 mm2的Loihi,最多支持1024 个神经元。
[3]根据上述9层PilotNet DNN推理负载的测试结果,Loihi 2上的Sigma-Delta神经网络实施了323,815次突触运算,均方误差(MSE)为0.035,而Loihi 1上的速率编码SNN实施了20,250,023次突触运算,均方误差(MSE)为0.0412。
好文章,需要你的鼓励
甲骨文公司披露获得一份年价值超过300亿美元的云服务合同,消息传出后股价一度上涨近9%。该合同是甲骨文自4月1日2026财年开始以来赢得的多个大型云服务协议之一,预计从2028财年开始贡献超过300亿美元的年收入。虽然买方身份未公开,但最可能的候选者是OpenAI,两家公司正在合作建设AI数据中心网络项目Stargate。
国立台湾大学等机构开发的MuseControlLite技术实现了音乐AI的重大突破。该系统仅用8500万参数就达到61.1%的旋律控制精度,比现有方法减少6.75倍参数量却性能更优。通过创新的位置编码和解耦交叉注意力机制,系统能同时处理文字、音乐属性和音频信号的多重控制,支持音乐生成、修复和风格迁移等功能,为音乐创作民主化开辟新道路。
AI编程编辑器Cursor背后的公司Anysphere推出网页应用,用户可通过浏览器管理AI编程代理网络。该应用支持桌面和移动端,用户可用自然语言分配编程任务、监控代理工作进度并合并代码更改。Cursor年经常性收入已超5亿美元,被超半数财富500强企业使用。新应用面向Pro计划及更高级别订阅用户开放,旨在降低使用门槛。公司预计到2026年AI编程代理将承担软件工程师至少20%的工作。
马里兰大学研究团队在70亿参数的OLMoE模型中首次发现了真实大型语言模型的"Grokking"现象,即AI在训练误差稳定后仍能实现智能突破。他们开发了基于混合专家模型思维路径分析的新方法,能够在无需外部测试的情况下准确预测AI的泛化能力,为AI开发和评估提供了革命性的实时监控工具。