7月20日,在英特尔至强融核应用创新论坛上,伴随着英特尔至强融合处理器“Knights Landing”(以下简称KNL)正式进入中国市场,英特尔与浪潮联合发起的“KEEP”试用体验计划(KNL Evaluation and Escalation Program)也正式接受报名申请。
据了解,除了在论坛现场报名“KEEP”计划外,全球科研院所或实验室的科研小组、高校师生以及企业HPC用户,均可登陆官方网站http://inspurhpc.com/KEEP/,向Inspur-Intel中国并行计算实验室提交应用说明和KNL测试迁移申请。一旦申请审核通过,即可免费成为“KEEP”计划的体验用户。
多人现场进行KEEP报名
“KEEP”计划负责人、Inspur-Intel中国并行计算联合实验室首席工程师张清表示,KNL带来一种全新的计算体验,拥有更灵活的产品模式、更好的性能功耗比、更高的内存容量和带宽以及更简单的编程体验。
KNL的首要变化就是既可以继续做协处理器,也可以单独做中央主处理器,支持Host processor、Host processor with Integrated fabric及Co-processor三种模式。其中,Host processor模式将消除PCIE瓶颈,可寻址的物理内存最大可达到400GB,其中DDR4内存最大为384GB,带宽为90+GB/s,MCDRAM片上内存最大为16GB,带宽可达到500GB/s。同时,KNL采用了Silvermont架构的改进定制版和14nm新工艺,核心数量多达72个并支持四线程,最多拥有288个线程,双精度浮点性能超过3TFlops,单精度则超过6TFlops,性能功耗比达到12GFlops/W以上。此外,KNL与Intel Xeon Processor 是二进制兼容的,Intel Xeon平台的程序可在KNL平台直接编译运行,基于Xeon平台的优化将同样适用于KNL,这为X86应用的开发和移植带来了更多的便利。
不过,KNL在带来更好计算体验的同时,也必然会引发应用的适应性进化。张清认为,“KEEP”计划提供公共的新技术平台和技术支持,可以让HPC和深度学习用户能第一时间免费试用新技术,开展预研工作,弥补了之前一直缺乏的“平台试用,应用预研”环节。这一计划的开展将帮助众多的HPC用户提前掌握新技术,提前在新计算平台上开展应用研发工作,这将推进HPC和深度学习生态的建设。
目前,“KEEP”计划是英特尔针对KNL开展的唯一一项试用体验计划。而对于为何选择浪潮作为合作对象,张清表示这与Inspur-Intel中国并行计算联合实验室在MIC技术的应用优化上取得的诸多成绩关系密切。该实验室的重要工作就是基于MIC技术研究面向Exscale的系统架构与应用创新,通过开放课题的设立为国内外HPC用户与专家提供了行业应用领先采用新技术的机会。目前,实验室已经基于第一代MIC架构KNC完成石油勘探、生命科学、CFD、气象等10个行业相关MIC应用,并完成全球第一本MIC技术专著,培训MIC技术工程师超过500人。
据了解,在第二代MIC架构KNL平台上,Inspur-Intel中国并行计算联合实验室目前已经完成SKA核心应用算法Gridding、大规模线性方程组求解器GMRES 2个HPC应用算法的KNL迁移与优化,并完成了全球首个基于KNL平台的集群并行版本Caffe-MPI,实现高性能、高可扩展性、支持大规模数据训练的深度学习计算框架。其中,Gridding应用的计算速度(million grid points per second)在单KNL节点达到14540,而在单节点双路E5 CPU上则为2383;而GMRES应用在同时计算2800万阶线性方程组的情况下,单KNL节点的性能是单节点2双路E5 CPU的4.42倍。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。