至顶网服务器频道 10月19日 新闻消息:
在力推使用FPGA作为人工智能和深度学习神经网络的加速器之后,英特尔更进一步,发布了首批专用的人工智能芯片。
芯片巨头英特尔近日宣布将很快出货首款针对AI工作负载专门设计的处理器。英特尔表示,经过三年时间的开发,这个全新的Nervana神经网络处理器(Nervana Neural Network Processor)家族代号为“Lake Crest”,将大大提升深度学习的速度和计算效率。
英特尔企业副总裁、人工智能产品部门总经理Naveen Rao在一篇博客文章中详细介绍了这款新的芯片,他指出,“机器学习和深度学习已经成为这个世纪以来最重要的计算工作负载。”
很少有人否认人工智能和机器学习的重要性,这已经成为当今发展最快的技术趋势之一。Nvidia因为它的GPU芯片成为人工智能和机器学习的工作标准,从而在最近几年迅速声名鹊起。
英特尔也决定投身于这一趋势前沿,将其作为巩固在数据中心领域优势的战略之一。这也解释了为什么英特尔在过去18个月一直强调自己FPGA加速器的能力,这种加速器用于为英特尔专用计算芯片加速深度学习工作负载。
但是很多FPGA就会被Nervana神经网络处理器挤到一边,后者提供了许多相同的速度和性能优势。这是因为这些芯片采用了一种新的内存架构,Rao称这个架构设计旨在最大限度提高处理速度。与以往的芯片不同,Nervana系列不带有一个管理缓存层,而是采用软件来管理片上内存,以确定分配给不同的操作。
Rao表示,这个功能让Nervana芯片能够“实现新一代面向深度学习的计算密度和性能”。他解释说,这个芯片具有一个简单的技巧就是所谓的“大规模双向数据传输”,这使得多个处理器可以作为一个大型虚拟芯片,可以容纳更大的AI模型,比以前更快地提供更好的洞察。
研究公司Moor Insights & Strategy总裁、首席分析师Patrick Moorhead表示:“这将是一个致力于训练用的大型芯片,但也可以用于推算的高吞吐量数据要求。”这里说的训练是将数据提供给深度学习算法,这样这些算法就可以自我学习而不是被明确编程运行。
然而,Moorhead表示,Nervana芯片将不会完全消除某些工作负载对FPGA的需求。“FPGA对于很多推算应用来说仍然是更具成本效益的方法,例如某些特定层要求1-3字位的精度。推算这是指运行训练算法的过程。”
英特尔尚未提供发布Nervana神经网络处理器的确切日期,但表示将很快发布这款新的芯片。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。