英特尔今天在以色列海法的一次特别活动中,悄然推出了首款专用人工智能处理器。
这款名为Nervana Neural Network Processor for Inference的处理器(也称为Springhil),是在位于海法的英特尔实验室开发的,据称是专为运行人工智能工作负载的大型数据中心设计的。据路透社报道,它基于改进的10纳米Ice Lake处理器,能够处理密集型工作负载,同时能耗极少。
英特尔表示,包括Facebook在内的多家客户已经开始在他们的数据中心使用该芯片。
Nervana NNP-I芯片是英特尔“AI无处不在”战略的一个组成部分。英特尔采用GPU、FPGA以及定制的ASIC来处理人工智能中的各种复杂任务,包括创建用于语音翻译和对象识别神经网络,以及通过推理过程运行训练模型。
Nervana NNP-I芯片足够小,可以通过所谓的M.2存储设备部署在数据中心,然后插入主板标准的M.2端口。这样就可以让英特尔标准的至强处理器从推理工作负载中脱离,更专注于一般性的计算任务。
Moor Insights&Strategy分析师Patrick Moorhead表示:“大多数推理工作负载都是在CPU上运行完成的,即便是像Nvidia T系列这样的加速器可以提供更高的性能。当延迟无关紧要而原始性能更重要的时候,则首选是加速器。英特尔的Nervana NNP-I旨在与Nvidia甚至Xilinx FPGA这样的分立加速器展开竞争。”
英特尔表示,Nervana NNP-I芯片实际上是改进版的10纳米Ice Lake芯片,带有两个计算机核心,图形引擎被剥离以容纳12个推理计算引擎,这些目的都是为了加速推理过程,也就是针对语音和图像识别等任务实施经过训练的神经网络模型。
Constellation Research分析师Holger Mueller表示,这对英特尔来说是一次重要的发布,因为此前英特尔在人工智能推理方面基本处于观望状态。
Mueller说:“英特尔正在提升在能耗和存储方面的能力,并在处理器套件中寻求协同效应。由于Springhill是通过M2设备和端口部署的,这在几十年前称为协同处理器,这有效地卸载了至强处理器。但我们必须等待,看看Springhill能否与更专业的、通常是基于GPU的处理器架构相抗衡。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。