英特尔于12月09号发布了英特尔oneAPI工具包的正式版本(即11月宣布将推出的英特尔oneAPI Gold版本),将用于为英特尔CPU、GPU和FPGA等(统称为XPU)开发高性能跨架构应用程序。此次2021.1版本的oneAPI工具包提供了一个开放、基于标准、统一的跨架构编程模型,让开发者可以自由地为加速计算选择最佳硬件。除此之外,下诺夫哥罗德大学宣布成立一个新的oneAPI卓越中心。
英特尔高级副总裁、首席架构师兼架构、图形与软件部门总经理Raja Koduri表示:“把英特尔的软件开发工具从CPU扩展到GPU和FPGA是我们XPU之旅的重大里程碑。正如我们所承诺的,oneAPI行业计划旨在为整个生态系统提供一个开放、统一的跨架构编程模型,提供专有编程模型的替代选择。我们的oneAPI工具包以及英特尔DevCloud提供了让我们加快进入分布式智能时代的生产工具。”
oneAPI的重要性:当今的工作负载受益于特殊的硬件架构。然而,这些架构通常需要独特的编程语言和工具,这限制了代码的重新利用性,减少了硬件选择并阻碍了创新架构的使用。oneAPI的异构编程模型能够提供毫不妥协的性能,不受限于单一厂商专用的代码限制,且能实现原有代码的集成,可以用C、C++、Fortran和Python等开发者熟悉的语言编写代码,并符合MPI和OpenMP等标准。
英特尔的oneAPI基础工具包基于英特尔丰富的开发者工具经验,包括编译器、性能库、分析和debug工具以及一个兼容性工具,可以帮助开发者把在CUDA上编写的代码迁移到Data Parallel C++(DPC++)。另外面向高性能计算、人工智能、物联网和渲染,额外工具包还提供工具和组件帮助加速专业工作负载。
英特尔oneAPI工具包让开发者能够使用跨XPU的单一代码库来开发跨架构应用程序,充分利用独特的硬件特性并降低软件开发和维护成本。开发者可以针对他们要解决的特定问题选择最佳的加速器架构,且无需为新的架构和平台再次重写软件。
获取oneAPI工具包的途径:oneAPI工具包可以免费下载至本地或从英特尔DevCloud使用。英特尔DevCloud平台可供开发者在各种英特尔架构上测试代码和工作负载,现已增加了新的英特尔锐炬Xe GPU硬件。访问选项包括网络下载、资源库和容器。oneAPI工具包还将提供包含英特尔技术咨询工程师全球支持的商业版本。
关于新的oneAPI卓越中心:下诺夫哥罗德大学(UNN)今天宣布成立一个新的oneAPI卓越中心(CoE),利用CPU、GPU和其它加速器结合oneAPI跨架构编程模型来促进现代物理学研究。除下诺夫哥罗德大学,斯德哥尔摩大学、海德堡大学和伊利诺伊大学也成立了oneAPI卓越中心。下诺夫哥罗德大学科研人员开发的第一个将移植到oneAPI的软件是一个高强度碰撞与相互作用开源框架,旨在模拟高强度激光物质的相互作用。
关于oneAPI生态系统支持:自2019年以来,oneAPI的生态系统支持一直在稳步发展壮大。超过60家知名科研机构、企业和大学支持oneAPI,其中一些表示已经成功使用了英特尔oneAPI工具包。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。