英特尔研究院推出了Kapoho Point开发板,更新了Lava框架,并公布了新增的英特尔神经拟态研究社区支持项目。
通过去年发布的Loihi 2第二代研究芯片和开源Lava软件框架,英特尔研究院正在引领神经拟态计算的发展。作为英特尔神经拟态技术商业化目标的一部分,英特尔研究院正在向开发者提供新工具,以便将开发过程推进到下一阶段。例如,8芯片Loihi 2开发板Kapoho Point,就可以通过堆叠满足大规模工作负载的需求,并可实现与低延迟事件相机(event-based vision sensors)的直接互连。
Loihi 2是英特尔的第二代神经拟态研究芯片。它支持新型类脑算法和应用程序,提供更快的处理速度与更高的资源密度,同时提高能效。(图片来源:英特尔公司)
此外,英特尔研究院还更新了开源Lava框架,以支持可编程神经元、整型脉冲神经元、卷积网络和持续学习。从最新版Lava(v0.5)开始,与Loihi 1系统上的相同工作负载相比,这些新功能使Kapoho Point运行深度学习应用的速度提高了12 倍,能耗也降低了15倍1。 此外,英特尔还通过英特尔神经拟态研究社区(INRC)启动了八个由英特尔赞助的大学项目。
向社区成员交付下一代神经拟态系统
基于Loihi 2的开发板Kapoho Point是一个紧凑系统(compact system),非常适合从无人机到卫星和智能汽车的各种小尺寸设备和应用。Kapoho Point可以运行包含多达10亿个参数的AI模型,也能解决涵盖多达800万个变量的优化问题。与在CPU上运行的先进求解器相比,它把速度提高了10倍以上,能耗降低了1000倍。此外,还能通过堆叠多个开发板实现Kapoho Point的扩展,以解决更大规模的问题。
基于Loihi 2的开发板Kapoho Point是一个紧凑系统,非常适合从无人机到卫星和智能汽车的各种小尺寸设备和应用。(图片来源:英特尔公司)
美国空军研究实验室(AFRL)是研究社区中第一个启用Kapoho Point的成员,正在把它用于内部研究,涉及基于脉冲神经网络的学习以及需要实时优化的问题。数据处理与开发高级科学家Qing Wu博士表示:“由于美国空军研究实验室的任务是在空中和太空中进行的,这使得移动平台的空间、重量和功率预算(power budget)非常有限。对在这种环境中运行AI算法的需求而言,神经拟态计算技术提供了非常出色的计算解决方案。”
通过Lava软件框架,降低神经拟态开发的门槛
对开源、模块化且可扩展的Lava软件框架的更新包括面向Loihi 2功能集的一系列改进,例如可编程神经元、分级事件和持续学习。
英特尔研究院更新了开源Lava框架,以支持可编程神经元、整型脉冲神经元、卷积网络和持续学习。(图片来源:英特尔公司)
Lava软件框架可以在GitHub上免费下载。
神经拟态生态系统项目
英特尔神经拟态研究社区(INRC)已经启动了八个由英特尔支持的大学项目,包括乔治梅森大学、昆士兰科技大学、格拉茨技术大学、苏黎世大学 、布朗大学、宾夕法尼亚州立大学、滑铁卢大学和哥廷根大学。
研究项目包括自适应机器人定位、可用于脑机接口的无线仿生传感脉冲解码、神经拟态贝叶斯优化、听觉特征检测以及新型类脑架构和算法。
自2018年成立以来,英特尔神经拟态研究社区的成员数已增加到180多个,包括大学实验室、政府机构以及埃森哲、联想、罗技和梅赛德斯-奔驰等全球领先企业。
接下来,英特尔研究院将为开发人员不断提供新工具,让他们能更轻松地开发解决现实问题的应用,并继续支持社区研究。
了解更多信息,请访问:intel.com/neuromorphic。
好文章,需要你的鼓励
本文探讨了一种防范通用人工智能(AGI)和人工超级智能(ASI)存在性风险的方法:将它们置于计算机仿真世界中进行测试。虽然这种方法看似合理,但存在诸多挑战。AGI可能会隐藏恶意行为,或因被欺骗而转向恶意。此外,仿真环境可能无法完全模拟真实世界,导致测试结果不准确。构建高质量仿真系统的成本和技术难度也不容忽视。文章认为,仿真测试虽有价值,但并非万能解决方案。
这项研究关注语音中的句子强调(即说话时对特定词的重音),它能传达说话者的潜在意图。耶路撒冷希伯来大学的研究团队发现,尽管现代语音语言模型进步显著,它们在理解句子强调方面表现不佳。团队创建了StressTest基准测试和Stress-17k合成数据集,并开发了StresSLM模型,使强调理解能力大幅提升。研究表明,通过特定训练策略,可以让AI不仅理解"说了什么",还能理解"怎么说的",从而捕捉人类交流中的微妙含义。
尽管AI在围棋等复杂游戏中表现出色,但在简单的井字棋游戏中却屡屡失败。研究显示,AI代理在模拟商业环境中的表现同样令人失望,经常出现幻觉、欺骗和任务未完成等问题。游戏测试为评估AI能力提供了直观方式,帮助普通用户理解AI的真实水平。面对当前AI行业的过度宣传,通过游戏化测试揭示AI的实际局限性,对于防范AI泡沫具有重要意义。
ViStoryBench是一个全面的故事可视化评估基准,由StepFun团队打造,用于测试AI将文字故事转化为连贯图像序列的能力。它包含80个多样化故事和344个角色参考,评估包括角色一致性、提示遵循度等多个维度。研究测试了20多种方法,发现UNO在开源方法中表现最佳,而商业软件如豆包和GPT-4o在提示一致性方面表现突出。该基准为故事可视化研究提供了统一标准,推动这一领域的创新发展。