英特尔今天在以色列海法的一次特别活动中,悄然推出了首款专用人工智能处理器。
这款名为Nervana Neural Network Processor for Inference的处理器(也称为Springhil),是在位于海法的英特尔实验室开发的,据称是专为运行人工智能工作负载的大型数据中心设计的。据路透社报道,它基于改进的10纳米Ice Lake处理器,能够处理密集型工作负载,同时能耗极少。
英特尔表示,包括Facebook在内的多家客户已经开始在他们的数据中心使用该芯片。
Nervana NNP-I芯片是英特尔“AI无处不在”战略的一个组成部分。英特尔采用GPU、FPGA以及定制的ASIC来处理人工智能中的各种复杂任务,包括创建用于语音翻译和对象识别神经网络,以及通过推理过程运行训练模型。
Nervana NNP-I芯片足够小,可以通过所谓的M.2存储设备部署在数据中心,然后插入主板标准的M.2端口。这样就可以让英特尔标准的至强处理器从推理工作负载中脱离,更专注于一般性的计算任务。
Moor Insights&Strategy分析师Patrick Moorhead表示:“大多数推理工作负载都是在CPU上运行完成的,即便是像Nvidia T系列这样的加速器可以提供更高的性能。当延迟无关紧要而原始性能更重要的时候,则首选是加速器。英特尔的Nervana NNP-I旨在与Nvidia甚至Xilinx FPGA这样的分立加速器展开竞争。”
英特尔表示,Nervana NNP-I芯片实际上是改进版的10纳米Ice Lake芯片,带有两个计算机核心,图形引擎被剥离以容纳12个推理计算引擎,这些目的都是为了加速推理过程,也就是针对语音和图像识别等任务实施经过训练的神经网络模型。
Constellation Research分析师Holger Mueller表示,这对英特尔来说是一次重要的发布,因为此前英特尔在人工智能推理方面基本处于观望状态。
Mueller说:“英特尔正在提升在能耗和存储方面的能力,并在处理器套件中寻求协同效应。由于Springhill是通过M2设备和端口部署的,这在几十年前称为协同处理器,这有效地卸载了至强处理器。但我们必须等待,看看Springhill能否与更专业的、通常是基于GPU的处理器架构相抗衡。”
好文章,需要你的鼓励
阿里云CEO吴泳铭在财报电话会议上表示,AI需求增长如此迅猛,以至于服务器部署速度无法跟上客户需求。公司正在对GPU进行配给制,优先满足使用全套阿里云服务的客户需求。过去12个月,阿里巴巴在AI相关基础设施上投入1200亿元人民币,预计三年预算可能超过当前的3800亿元。阿里云智能集团季度营收达56亿美元,同比增长34%。
这项由中国人民大学联合腾讯开发的LaSeR技术,发现了AI在生成答案最后一刻会无意中透露对答案质量的评估。通过观察这个"最后一词效应",研究人员开发出了一种让AI高效进行自我评估的方法,在几乎不增加计算成本的情况下,大幅提升了AI的自我验证能力,为构建更可信的AI系统开辟了新路径。
OpenAI为ChatGPT推出"购物研究"新功能,恰逢假期购物季。该功能面向免费和付费用户开放,支持移动端和网页版。用户询问购物问题时,ChatGPT会提供个性化购物助手服务,通过一系列问题帮助用户筛选价格、用途和功能偏好。该功能基于专为购物任务优化的GPT-5 mini版本,从优质网络资源获取产品信息。OpenAI计划推出即时结账功能,允许用户直接在ChatGPT内购买商品。
新加坡南洋理工大学团队开发的NEO模型颠覆了传统视觉语言AI的设计思路,从模块化拼接转向原生统一架构。仅用3.9亿图文配对数据就实现了与大型模块化系统相媲美的性能,证明了端到端训练的有效性,为AI系统设计开辟了新路径。