今天,英特尔分享了英特尔神经拟态研究社区(INRC)的最新进展。该社区自2018年成立以来发展迅速,现已拥有100多名成员。英特尔今天宣布,联想、罗技、梅赛德斯-奔驰和机器视觉传感器公司Prophesee加入INRC,共同探索神经拟态计算在商业用例上的价值。此外,得益于英特尔神经拟态研究测试芯片Loihi的计算能力,英特尔还概括介绍了英特尔神经拟态研究社区更多的研究成果。
英特尔神经拟态计算实验室总监Mike Davies 表示:“短短两年时间里,我们已经形成了一个充满活力的社区,其中包括来自世界各地的数百名研究人员,神经拟态计算在计算效率、速度和智能功能方面带来数量级提升的潜力让他们深受鼓舞。我们第一次看到有越来越多证明这种潜力的场景出现。我们计划与英特尔神经拟态研究社区的合作伙伴一起,在收获的洞察基础上,让这一新生技术实现广泛和颠覆性的商业应用。”
英特尔之所以创建英特尔神经拟态研究社区,是因为我们认为没有任何公司能够凭借一己之力有效释放神经拟态计算的全部潜力。通过与学术界、产业界和政府领域的一些知名研究人员进行合作,英特尔致力于解决神经拟态计算发展中的挑战,并在未来几年内将其从研究原型发展为能够引领产业的产品。
英特尔及其合作伙伴已经展示了在现实世界边缘用例中所实现的数量级提升,并且看到了在扩展工作负载之后,解决更大的计算问题所取得的早期进展。随着神经拟态计算的不断发展,英特尔和英特尔神经拟态研究社区还发现了神经拟态技术在现实世界中的各种潜在用例,例如:支持更高效且能够自适应的机器人技术;在大型数据库中快速搜索相似的内容;让边缘设备能够实时做出复杂规划和优化决策等。联想、罗技、梅赛德斯-奔驰和Prophesee的加入,以及英特尔神经拟态研究社区中现有的《财富》世界500强企业和政府实验室,证明神经拟态技术正在稳步成熟,将从学术实验室逐步走向产业应用。
通过对英特尔神经拟态系统上的应用进行持续开发、原型设计和测试,英特尔和英特尔神经拟态研究社区成员获得了越来越多的成果,并显示在各种工作负载中神经拟态计算都能带来性能的一致性提升。现有的研究结果——例如模仿人类嗅觉系统、将基于事件的触感引入机器人,结合英特尔研究院开放日上所介绍的新基准,勾勒出一副新的图景,即:神经拟态计算非常适合新兴的、具有商业相关性的仿生智能负载。
英特尔研究院开放日重点介绍的基准更新包括:
此外,英特尔及其合作伙伴在英特尔研究院开放日活动上还展示了两个使用最先进技术的神经拟态机器人演示。与苏黎世联邦理工学院的研究人员合作,英特尔展示了Loihi如何自适应地控制水平跟踪无人机平台,实现最高可达20千赫兹的闭环速度以及200微秒的视觉处理延迟。与传统解决方案相比,这意味着效率和速度都提高了1000倍。为了解决神经拟态软件集成问题,英特尔和意大利理工学院(IIT)的研究人员在IIT的iCub机器人平台上演示了多种认知功能在Loihi上运行,其中包括基于快速、小样本学习(few-shot learning)的物体识别,对学习对象的空间感知,以及对人类互动的实时决策。
随着英特尔神经拟态研究社区的发展,英特尔将继续对这个独特的生态系统进行投资,并与成员合作以提供技术支持,探索神经拟态计算可以在哪些方面解决现实中的各种问题。此外,英特尔将继续从英特尔神经拟态研究社区汲取经验,并将其运用于公司即将发布的下一代神经拟态研究芯片的研发中。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。