SYCLomatic开放开发,使开发者自由创建可迁移的异构代码。
英特尔发布了一项开源工具,该工具可通过名为SYCLomatic的项目,将代码迁移至SYCL,这有助于开发者更轻松地将CUDA代码迁移到SYCL和C++,从而加速面向异构架构的跨架构编程。这个开源项目能让开发社区共同协作,以推动SYCL标准的采用,这是将开发者从单个厂商的封闭生态系统中解放出来的关键一步。
英特尔oneAPI专家James Reinders表示:“使用SYCL将代码迁移至C++,为代码提供了更强的ISO C++一致性,支持多家供应商以缓解供应商锁定问题,并且支持多种架构,为充分运用新的硬件创新提供灵活性。SYCLomatic是一个可实现大部分工作自动化的宝藏工具,让开发者能更多地关注定制化调优,而不是迁移代码。”
在硬件创新为计算带来多样化异构架构的同时,软件开发也已经变得越来越复杂,很难充分释放CPU和加速器的价值。如今的开发者及其团队普遍缺乏时间、金钱和资源,以适应代码的重写和测试,为这些不同的架构提升应用的性能。开发者正在寻求开放替代方案,以提升时间价值。英特尔正在提供一种更简单、更快捷的方式,让开发者进行硬件选择。
SYCL是一种基于C++的Khronos Group标准,它扩展了C++功能以支持多种架构和非共享内存的配置。为启动该项目,英特尔开源了其DPC++兼容性工具背后的技术,以进一步提升迁移能力,生成更多基于SYCL的应用。跨架构重复利用代码简化了开发工作,减少了持续维护代码所需的时间和成本。
利用带有LLVM差异化的Apache 2.0许可证,托管在GitHub上的SYCLomatic项目为开发者提供了一个社区,让他们能做出贡献并提供反馈,以进一步开放跨CPU、GPU和FPGA的异构开发。
SYCLomatic协助开发者将CUDA代码迁移到SYCL,通常可以将90-95%的CUDA代码自动迁移到SYCL代码2。开发人员仅需手动编程剩余的工作,然后对特定架构进行定制化调优,达到所需的性能级别,便可完成这一过程。
研究机构及英特尔客户已成功地使用英特尔® DPC++兼容性工具,该工具采用与SYCLomatic相同的技术,能将CUDA代码迁移到多个厂商架构上的SYCL(或Data Parallel C++,oneAPI的SYCL实现)。这些案例包括斯德哥尔摩大学的GROMACS 20223、柏林祖思研究所(ZIB)的easyWave、三星Medison和Bittware(更多案例请访问oneAPI DevSummit)。许多客户也正在测试当前和即将推出的基于英特尔® Xe架构GPU的代码,包括阿贡国家实验室的极光(Aurora)超级计算机、莱布尼茨超级计算中心(LRZ)、GE医疗等。
SYCLomatic 是一个GitHub项目。GitHub门户网站拥有一个“contributing.md”指南,描述了向项目提供技术贡献的步骤,以确保最大程度的便捷。鼓励开发人员使用该工具,提供反馈并做出贡献,以推动该工具的发展。
HACC(硬件/混合加速宇宙学代码)、宇宙物理学和先进计算(anl.gov)的Steve(Esteban)Rangel表示:“CRK-HACC是一个正在开发的N体宇宙学模拟代码。为了给极光(Aurora)超级计算机做好准备,英特尔DPC++兼容性工具能让我们将20多个核心快速迁移到SYCL。由于当前版本的代码迁移工具不支持迁移到仿函数,我们编写了一个简单的clang工具来重构生成的SYCL源代码,以满足我们的需求。通过开源SYCLomatic项目,我们计划整合此前的工作,以获得更强大的解决方案,并助力让仿函数成为可用迁移选项的一部分。”
提供给开发者的资源:
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。