英特尔公司日前发布针对高性能计算与AI两大工作负载进行优化的新型通用图形处理单元,这也意味着芯片巨头正式将业务关注重点放在二者的融合身上。
除此之外,英特尔方面还公布了oneAPI计划,旨在提供更为简单的编程模型(包括GPU、中央处理器、现场可编程门阵列以及神经网络处理器等),用于开发可在任意类型架构之上运行的HPC与AI应用程序。
在此次科罗拉多州Supercomputing 2019大会上亮相的全新Ponte Vecchio离散GPU采用英特尔目前最先进的7纳米制程工艺制造,基于英特尔Xe架构设计,同时专门针对HPC与AI训练等工作负载做出了优化。
英特尔公司视觉技术团队与图形业务部门副总裁兼总经理Ari Rauch在新闻发布会上表示,“几年之前,英特尔就意识到有必要开发出一种图形架构,将传统GPU的工作负载适用范围延伸至HPC/超大规模/AI与深度学习训练等领域。”
这款新型GPU有望给英特尔带来更足的底气,在AI市场上同领先厂商英伟达以及AMD等竞争对手争夺与AI与机器学习业务相关的市场份额。就在上周,英特尔方面还公布了三款用于训练及运行AI工作负载的新型芯片。
尤其重要的是,英特尔方面还披露了新一代至强处理器的消息,包括明年上半年推出代号为Cooper Lake的新处理器,以及计划于2021年推出的Sapphire Rapids处理器。
值得注意的是,Ponte Vecchio是英特尔公司首款采用全新Foveros 3D封装技术的GPU。Foveros之所以如此重要,是因为其能够将多种芯片类型组合在同一块晶片之上,从而构建起高度专用化的新型处理器方案。
Ponte Vecchio几乎必然采用了这样的混合设计方案,因为其在设计上能够与现有至强Scalable CPU协同工作。后者包含内置AI加速功能,可用于分析HPC工作负载生成的大量数据。
Moor Insights & Strategy公司的Patrick Moorhead在采访当中表示,“业界希望在数据中心GPU产品领域开展进一步竞争,这一点已经非常明确。”但他同时强调,相关筹备工作仍在进行当中,英特尔方面可能要到明年某个时候才能真正准备就绪。
另一条有趣的消息来自英特尔的oneAPI计划。该计划包含一套开放性规范,用于编写可运行在任意计算架构之上的HPC与AI应用程序。
英特尔方面表示,异构应用程序的编写对于HPC以及AI应用来说非常关键,毕竟此类工作负载必须配合多种不同架构才能高效运行。
英特尔公司高级副总裁,架构、图形与软件首席架构师兼总经理Raja Koduri表示,“HPC与AI工作负载需要配合多种架构,涵盖CPU、通用GPU、FPGA乃至专用性更强的深度学习NNP等等。帮助客户轻松运用不同环境提供的计算功能显然至关重要,英特尔公司致力于提供软件为先的思路,为异构架构提供一个统一且可扩展的抽象层。”
OneAPI当中包括一种直接编程语言、强大的应用程序编程接口、库以及分析器。英特尔方面指出,oneAPI旨在降低开发人员的工作负担,确保他们在进行异构应用程序开发的过程中无需维护单独的代码库,也用不着使用多种编程语言或工具。
Moorhead指出,“OneAPI旨在简化开发人员的工作流程,使其轻松跨越英特尔GPU、CPU、FPGA以及Movidius加速器完成编程工作。这是一个抽象层,可实现代码复用,从而最大限度减少目前广泛存在的加速定制工作。业界希望能够在这样的基础之上实现代码复用,而不再像过去那样为不同的加速器编写不同的代码。”
Constellation Research公司分析师Holger Mueller在采访中表示,他觉得oneAPI的意义甚至超过了新款GPU,这也符合近年来软件价值高于硬件的整体趋势。
Mueller指出,“对于高管们来说,这种将代码资产在下一代应用程序中复用的能力非常重要,企业业务的加速发展也需要以此为基础。”
英特尔此次公布的新技术(包括Ponte Vecchio GPU以及oneAPI)将被引入美国能源部在伊利诺伊州阿贡国家实验室打造的Aurora超级计算机系统。这套系统计划在2021年投入使用,并将成为美国第一台性能达到百亿亿次水平的超级计算机。
Aurora中的各个计算节点包含两块至强Scalable CPU以及六块Ponte Vecchio GPU。此外,其还将整合英特尔公司的其他技术成果,包括Optane非易失性存储器以及其他多种连接组件,共同构成一套以数据为中心的完整英特尔技术产品组合。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。