2020年3月19日——今天,英特尔宣布其最强大的最新神经拟态研究系统Pohoiki Springs已准备就绪,将提供1亿个神经元的计算能力。英特尔将向英特尔神经拟态研究社区(INRC)的成员提供这一基于云的系统,以扩展其神经拟态工作来解决更大规模且更复杂的问题。
英特尔神经拟态计算实验室主任Mike Davies介绍称:“Pohoiki Springs将我们的Loihi神经拟态研究芯片扩展了750倍以上,同时以低于500瓦的功率运行。当前,一些工作负载在传统架构(包括高性能计算HPC系统)上运行缓慢。而Pohoiki Springs系统则让我们的研究合作伙伴能够探索加速处理这些工作负载的方法。”
Pohoiki Springs是一个数据中心机架式系统,是英特尔迄今为止开发的最大规模的神经拟态计算系统。它将768块Loihi神经拟态研究芯片集成在5台标准服务器大小的机箱中。

图注:数据中心机架式系统Pohoiki Springs(资料来源: Tim Herman/英特尔公司)
Loihi处理器的设计思路来源于人脑。与大脑一样,Loihi能用比传统处理器快1000倍的速度和高10000倍的效率处理特定要求的工作负载。Pohoiki Springs是扩展Loihi架构的下一步,可用于评估其解决AI问题以及一系列计算难题的潜力。英特尔研究人员认为,与当今最先进的传统计算机相比,神经拟态系统拥有超级并行性和异步信号传输能力,可以在明显降低功耗的同时显著提升性能。
在自然界中,即使是一些最小的生物也能解决极为困难的计算问题。例如,尽管很多昆虫大脑的神经元数目远低于100万个,但它们却能实时视觉跟踪物体、导航和躲避障碍物。同样,英特尔最小的神经拟态系统Kapoho Bay由两个具有262000个神经元的Loihi芯片组成,支持各种实时边缘工作负载。英特尔和INRC研究人员展示了Loihi的各种能力,包括实时识别手势、使用新型人造皮肤阅读盲文、使用习得的视觉地标确定方向,以及学习新的气味模式。所有这些功能都只需要消耗数十毫瓦的电能。到目前为止,这些小规模示例显示出极好的可扩展性,当运行更大规模的问题时,Loihi比传统解决方案更加快速高效。这模仿了自然界中从昆虫大脑到人类大脑的可扩展性。
Pohoiki Springs拥有1亿个神经元,它将Loihi的神经容量增加到一个小型哺乳动物大脑的大小,这是在向支持更大、更复杂的神经拟态工作负载的道路上迈出的重要一步。该系统为需要实时、动态的数据处理新方法的自主、互联的未来奠定了基础。
英特尔的Pohoiki Springs等神经拟态系统仍处于研究阶段,其设计目的并非取代传统的计算系统,而是为研究人员提供一个工具来开发和表征新的神经启发算法,用于实时处理、问题解决、适应和学习。INRC成员将使用英特尔Nx SDK和社区贡献的软件组件,通过云访问在Pohoiki Springs上构建应用程序。
目前正为Loihi开发的前景极佳且高度可扩展算法示例包括:
关于神经拟态计算:传统的CPU和GPU等通用处理器特别擅长人类难以完成的任务,如高精度的数学计算。但随着技术的作用和应用范围都在不断扩大,从自动化到人工智能,以及其他更多领域,越来越要求计算机的操作模式趋向于人类,以便实时处理非结构化和有噪声的数据,并不断地适应变化。为应对这一挑战,新的专用架构应运而生。
神经拟态计算是对计算机架构自下而上的彻底颠覆。其目标是应用神经科学的最新见解,来创造作用方式更类似于人脑的芯片而非传统计算机的芯片。神经拟态系统在硬件层面上复制了神经元组织、通信和学习方式。英特尔认为Loihi和未来的神经拟态处理器将定义一种新的可编程计算模式,可满足世界对普及型智能设备日益增长的需求。
好文章,需要你的鼓励
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
OpenAI发布新版GPT-5.2-Codex AI编程模型,专注自动化复杂软件工程任务。该模型在SWE-Bench Pro基准测试中准确率达56.4%,在代码重构、Windows环境性能和网络安全方面表现出色。新增的上下文压缩功能支持长期多步骤编程任务,增强的视觉能力可解读截图和技术图表。模型还具备AI辅助漏洞检测和修复功能,现已向付费ChatGPT用户开放。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。