在2019年Hot Chips大会上,英特尔公布了即将推出的高性能人工智能(AI)加速器——英特尔Nervana神经网络处理器的最新细节,包括用于训练的NNP-T和用于推理的NNP-I。英特尔工程师还介绍了混合芯片封装技术、英特尔®傲腾™数据中心级持久内存和光学I/O小芯片技术的细节。
“要想实现‘人工智能无处不在’的未来愿景,我们必须解决数据的积压问题,确保企业能够有效利用数据,必要的时候在收集数据的地方对数据进行处理,并更明智地利用上游的数据和计算资源。数据中心和云端需要为复杂的AI应用提供高性能和可扩展的通用计算,以及专门的加速。在人工智能无处不在的未来愿景中,从硬件到软件再到应用,都需要一种全面的解决方案。”——Naveen Rao,英特尔公司全球副总裁兼人工智能产品事业部总经理
将数据转化为信息、再转化为知识,需要硬件架构和封装、内存、存储、互连技术的相互配合,这些技术不断演进并支持新兴且日益复杂的应用场景和AI技术。AI专用加速器能够在适当的时间为客户提供合适的智能,比如全新构建的英特尔Nervana NNP。
英特尔Nervana NNP-T——全新构建,旨在大规模训练深度学习模型。英特尔Nervana NNP-T(神经网络处理器)不断突破深度学习训练的极限。它优先考虑两个关键的实际因素:尽可能快地训练网络并在给定的功率预算内完成训练。这款深度学习训练处理器在构建时充分考虑到灵活性,并在计算、通信和内存之间取得平衡。虽然英特尔至强可扩展处理器增加了AI指令集并为人工智能奠定良好基础,但全新构建的NNP-T考虑到了应对大型模型所需的功能特性和要求,不必提供额外所需以支持传统技术。为了满足未来的深度学习需求,英特尔Nervana NNP-T具备灵活性和可编程性,因此可以进行定制,以便加速各种负载,无论是现有负载还是新兴负载。
英特尔Nervana NNP-I——针对主要数据中心负载的高性能深度学习推理。英特尔Nervana NNP-I专为推理而设计,旨在大规模加速深度学习部署,它充分利用英特尔的10纳米制程技术和Ice Lake内核,在所有主要数据中心负载上提供业界领先的每瓦性能。此外,英特尔Nervana NNP-I在不影响性能或功耗效率的前提下,提供了高度可编程性。随着人工智能在各项负载中变得无处不在,拥有一个易于编程、时延较短、可快速移植代码并支持所有主要深度学习框架的专用推理加速器,企业就能将数据的全部潜力转化为可践行的洞察而加以利用。
Lakefield——三维封装中的混合核心。Lakefield是业界首款采用3D堆叠和IA混合计算架构的产品,将用于新一类移动设备。利用英特尔最新的10纳米制程和Foveros先进封装技术,Lakefield在待机功率、核心面积和封装高度上都比前几代技术有了显著降低。Lakefield带来的顶级计算性能和超低热设计功率,让全新纤薄外观的设备、二合一设备和双屏设备都能以极低的待机功耗始终在线、始终互联。
TeraPHY——用于高带宽、低功耗通信的封装内光学I/O小芯片。英特尔和Ayar Labs共同演示了整体内封光件(MIPO)与高性能系统芯片(SOC)的业界首次集成。Ayar Labs的TeraPHY光学I/O小芯片与采用英特尔嵌入式多芯片互连桥接(EMIB)技术的英特尔Stratix 10 FPGA共同封装,从芯片封装中提供高带宽、低功耗的数据通信,在一定时间内的延续距离高达2公里。此次合作将消除数据传输中性能、功耗和成本的固有瓶颈,帮助以新方法为摩尔定律的下一阶段构建计算系统。
英特尔傲腾数据中心级持久内存——架构和性能。现已批量出货的英特尔傲腾数据中心级持久内存是内存/存储层级结构中首款被称为持久内存的产品,并处于整个层级结构中全新的一层。基于英特尔3D XPoint技术,傲腾数据中心级持久内存拥有内存模块外形,能够以接近内存的速度提供超大容量,纳秒级的低延时,并提供本地化的持久存储。两种运行模式(内存模式和App Direct模式)的详细信息以及性能示例展示了这一全新层级如何支持数据供应子系统的完全重新架构,从而支持更快的,以及新的工作负载。
好文章,需要你的鼓励
谷歌地图将集成Gemini人工智能技术,旨在将其升级为一个"全知型副驾驶"助手。这一整合将大幅提升地图服务的智能化水平,为用户提供更加个性化和全面的导航体验。通过AI技术的加持,谷歌地图有望在路线规划、地点推荐和实时信息服务等方面实现重大突破。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
微软研究人员发布新的仿真环境来测试AI智能体,研究显示当前智能体模型容易受到操纵。该名为"Magentic Marketplace"的合成平台让客户智能体与商家智能体进行交互实验。测试包括GPT-4o、GPT-5和Gemini-2.5-Flash等模型,发现智能体在面临过多选择时效率下降,且在协作方面表现不佳。研究揭示了AI智能体在无监督环境下的性能问题。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。