英特尔公司日前发布针对高性能计算与AI两大工作负载进行优化的新型通用图形处理单元,这也意味着芯片巨头正式将业务关注重点放在二者的融合身上。
除此之外,英特尔方面还公布了oneAPI计划,旨在提供更为简单的编程模型(包括GPU、中央处理器、现场可编程门阵列以及神经网络处理器等),用于开发可在任意类型架构之上运行的HPC与AI应用程序。
在此次科罗拉多州Supercomputing 2019大会上亮相的全新Ponte Vecchio离散GPU采用英特尔目前最先进的7纳米制程工艺制造,基于英特尔Xe架构设计,同时专门针对HPC与AI训练等工作负载做出了优化。
英特尔公司视觉技术团队与图形业务部门副总裁兼总经理Ari Rauch在新闻发布会上表示,“几年之前,英特尔就意识到有必要开发出一种图形架构,将传统GPU的工作负载适用范围延伸至HPC/超大规模/AI与深度学习训练等领域。”
这款新型GPU有望给英特尔带来更足的底气,在AI市场上同领先厂商英伟达以及AMD等竞争对手争夺与AI与机器学习业务相关的市场份额。就在上周,英特尔方面还公布了三款用于训练及运行AI工作负载的新型芯片。
尤其重要的是,英特尔方面还披露了新一代至强处理器的消息,包括明年上半年推出代号为Cooper Lake的新处理器,以及计划于2021年推出的Sapphire Rapids处理器。
值得注意的是,Ponte Vecchio是英特尔公司首款采用全新Foveros 3D封装技术的GPU。Foveros之所以如此重要,是因为其能够将多种芯片类型组合在同一块晶片之上,从而构建起高度专用化的新型处理器方案。
Ponte Vecchio几乎必然采用了这样的混合设计方案,因为其在设计上能够与现有至强Scalable CPU协同工作。后者包含内置AI加速功能,可用于分析HPC工作负载生成的大量数据。
Moor Insights & Strategy公司的Patrick Moorhead在采访当中表示,“业界希望在数据中心GPU产品领域开展进一步竞争,这一点已经非常明确。”但他同时强调,相关筹备工作仍在进行当中,英特尔方面可能要到明年某个时候才能真正准备就绪。
另一条有趣的消息来自英特尔的oneAPI计划。该计划包含一套开放性规范,用于编写可运行在任意计算架构之上的HPC与AI应用程序。
英特尔方面表示,异构应用程序的编写对于HPC以及AI应用来说非常关键,毕竟此类工作负载必须配合多种不同架构才能高效运行。
英特尔公司高级副总裁,架构、图形与软件首席架构师兼总经理Raja Koduri表示,“HPC与AI工作负载需要配合多种架构,涵盖CPU、通用GPU、FPGA乃至专用性更强的深度学习NNP等等。帮助客户轻松运用不同环境提供的计算功能显然至关重要,英特尔公司致力于提供软件为先的思路,为异构架构提供一个统一且可扩展的抽象层。”
OneAPI当中包括一种直接编程语言、强大的应用程序编程接口、库以及分析器。英特尔方面指出,oneAPI旨在降低开发人员的工作负担,确保他们在进行异构应用程序开发的过程中无需维护单独的代码库,也用不着使用多种编程语言或工具。
Moorhead指出,“OneAPI旨在简化开发人员的工作流程,使其轻松跨越英特尔GPU、CPU、FPGA以及Movidius加速器完成编程工作。这是一个抽象层,可实现代码复用,从而最大限度减少目前广泛存在的加速定制工作。业界希望能够在这样的基础之上实现代码复用,而不再像过去那样为不同的加速器编写不同的代码。”
Constellation Research公司分析师Holger Mueller在采访中表示,他觉得oneAPI的意义甚至超过了新款GPU,这也符合近年来软件价值高于硬件的整体趋势。
Mueller指出,“对于高管们来说,这种将代码资产在下一代应用程序中复用的能力非常重要,企业业务的加速发展也需要以此为基础。”
英特尔此次公布的新技术(包括Ponte Vecchio GPU以及oneAPI)将被引入美国能源部在伊利诺伊州阿贡国家实验室打造的Aurora超级计算机系统。这套系统计划在2021年投入使用,并将成为美国第一台性能达到百亿亿次水平的超级计算机。
Aurora中的各个计算节点包含两块至强Scalable CPU以及六块Ponte Vecchio GPU。此外,其还将整合英特尔公司的其他技术成果,包括Optane非易失性存储器以及其他多种连接组件,共同构成一套以数据为中心的完整英特尔技术产品组合。
好文章,需要你的鼓励
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
人工智能初创公司aiOla推出基于流匹配训练技术的语音AI模型Drax,挑战OpenAI和阿里巴巴等巨头。该模型重新定义语音算法训练方式,能在嘈杂环境中准确识别语音,兼顾速度与准确性。相比OpenAI的Whisper和阿里巴巴Qwen2,Drax采用并行流处理技术,速度提升32倍,词错误率仅7.4%。该模型已在GitHub开源,提供三种规模版本。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。