2019年8月22日,呼和浩特——2019 CCF全国高性能计算学术年会今天举行,作为计算创新的引领者,英特尔在会上分享了对于高性能计算(HPC)和人工智能(AI)融合趋势的最新见解,阐释了英特尔凭借以数据为中心的产品组合变革高性能计算、转变IT系统范式的洞察和实践,并展现了与产、学、研各界的深度合作。
英特尔公司数据中心事业部副总裁兼E级计算业务总经理Trish A. Damkroger在大会上发表演讲
作为中国高性能计算领域规模最大的集学术、技术、产业为一体的年度盛会,全国高性能计算学术年会自2005年创办以来,一直有力推动着中国高性能计算的发展。
英特尔公司数据中心事业部副总裁兼E级计算业务总经理Trish A. Damkroger表示:“在这个以数据为中心的世界,先进的高性能计算系统同时借助传统的高性能计算数据分析和人工智能技术,来高效处理最为复杂的科学问题。英特尔通过以数据为中心的软硬件产品组合,从数据中心到云,驱动整个IT系统范式的变革,并以产品技术创新和广泛的生态优势,全方位推动高性能计算和人工智能的融合。”
如今,得益于三大趋势的成熟——数据科学的新突破、训练数据的指数增长、计算力的不断提升,人工智能正走向历史转折点,得到前所未有的大规模采用。高性能计算也正在加速这一势头,将AI的强大功能应用于现有的高性能计算工作流程,也扩展了人工智能算法的规模,以充分利用高性能计算系统的能力。同时,高性能计算和AI的融合,将从架构灵活性、扩展的内存存储层级结构、软件抽象化等方面变革IT系统范式。
英特尔以数据为中心的产品组合提供了构建先进计算系统的根基,使得这些系统能够传输、存储和处理海量数据,更可以将高性能计算数据分析和人工智能加速整合到单一的计算环境中,并提供新的内存和存储模式为计算引擎提供支持,进而解决高性能计算系统面临的独特挑战。
这其中,英特尔至强铂金9200处理器专为高性能计算、高级人工智能和分析而设计,它集成英特尔深度学习加速(英特尔 DL Boost)技术,AI性能相比上一代至强可扩展处理器提高多达30倍。英特尔至强铂金9200处理器为广泛的工作负载提供领先的性能,诸如科学模拟、财务分析、人工智能/深度学习、3D建模与分析、密码学和数据压缩等场景。此外,英特尔至强铂金9200处理器借助英特尔数据中心模块,可以实现四大优势:降低配置和流程的复杂程度、享受高级定制化服务的放心部署、降低总拥有成本以及集中力量实现增值从而加快上市速度。
值得一提的是,英特尔始终不遗余力地支持高性能计算领域的创新合作和人才培养。多年来,英特尔全力支持全国并行应用挑战赛(Parallel Application Challenge),提供硬件基础设施、软件工具以及培训指导服务,以培养更多的高性能计算人才,挖掘更多高性能计算创新应用。作为主办单位,英特尔今年继续支持全国并行应用挑战赛,并通过提供一系列创新的计算平台及软件工具层的服务生态,携手更多科研机构与高校,一同推动国内超算技术的应用发展。
好文章,需要你的鼓励
这项研究探索了语言神经元视角下多语言对齐如何增强大语言模型(LLMs)的多语言能力。研究团队提出了一种更精细的神经元识别算法,将激活神经元分为语言特定、语言相关和语言无关三类,克服了现有方法的局限性。基于这种分类,研究将LLMs多语言处理过程划分为四个阶段:多语言理解、共享语义空间推理、多语言输出空间转换和词汇空间输出。通过分析对齐前后不同类型神经元的变化,发现多语言对齐促进了更多语言相关神经元的共享使用,减少了对语言特定神经元的依赖,这也解释了"自发多语言对齐"现象。
这项由弗吉尼亚大学与Adobe研究院合作的研究突破了传统图像到视频生成的空间限制,提出了"Frame In-N-Out"技术,使物体可以自然地离开画面或新物体能够进入画面。研究团队创建了专门的数据集和评估方法,并设计了一种融合运动控制、身份参考和无边界画布的扩散变换器架构。实验结果表明,该方法在生成质量和控制精度上显著优于现有技术,为电影制作和创意内容创作提供了新可能。
浙江大学研究团队开发了首个评估视觉语言模型多视角空间定位能力的综合基准ViewSpatial-Bench,并揭示了现有模型在视角转换理解上的严重缺陷。通过自动化3D标注流水线构建的大规模数据集,他们训练出的多视角空间模型(MVSM)实现了46.24%的性能提升,为人机空间交互提供了新的解决方案,使AI系统能更好地理解人类视角下的空间关系,促进更直观的人机交流。
ByteDance团队提出的DetailFlow是一种创新的图像生成方法,通过"下一细节预测"策略实现从粗到细的自回归生成。它将图像编码为仅需128个令牌的1D序列,比传统方法少5倍,却实现了更高质量(2.96 gFID)和更快速度(提速约8倍)。该方法巧妙地模拟人类创作过程:先勾勒整体结构,再逐步添加细节,并通过自我纠错机制解决并行推理中的错误累积问题,为高分辨率图像生成提供了高效解决方案。