2022年11月30日,深圳——在今日落幕的WAVE SUMMIT+2022深度学习开发者峰会上,英特尔基于以“智能算力,AI破局”为主题的分论坛,携手百度飞桨全面展示了双方如何凭借强大算力与AI软硬件协同优化,助力传统产业智能化升级,赋能千行百业,共创繁荣AI生态。
英特尔(中国)有限公司副总裁兼软件生态部总经理李映博士表示:“在数字技术与实体经济加速融合的趋势下,AI与产业结合的场景越来越深入,正在持续为中国数字经济注入新动能。在此情况下,硬件成为了科技发展的硬核基础,而软件则定义了各种使用场景和架构。基于此,英特尔正在秉持开放的态度,为广泛的生态伙伴及用户提供丰富的选择,与整个生态系统共同构建一个‘软件定义、芯片增强’的世界。”
长期以来,英特尔一直在投资从硬件到软件的各个层面,以期建立一个充满活力的生态系统。英特尔把软件分为三个层次,分别是底层软件、中层软件和上层服务。其中,底层软件能够保证AI的性能满足各种AI应用的需求。英特尔一直在大力投入底层软件,以释放硬件潜力。在此基础上,为使中层软件充分利用硬件优势,突显市场价值,英特尔一直在不遗余力地支持各种开源社区(如Linux基金会、CNCF社区等),提供商业软件或开源软件,并在硬件平台上进行优化。最近,英特尔通过可信任的计算技术,在中间层面打通了从服务器到硬件的各种道路,保证了可信任的执行环境,为上层各种AI应用提供了可信任的基石。基于底层和中层软件,英特尔始终与生态伙伴一起,在最上层的新模式、新平台和新市场中创造出全新价值。
基于以上战略,英特尔一直在携手百度飞桨共同推动产业深度合作,并取得了丰硕成果。在此次峰会上,英特尔联合百度飞桨共同发布了两个白皮书——《验证至强内置全新AI加速技术》和《见证CPU加速AI for Science普及潜能》,以详细介绍双方在近期的技术合作情况。在数据中心层面,全系列英特尔®至强®可扩展处理器针对百度飞桨的各种模型和框架进行了深度优化。此外,基于英特尔软硬件的联合优化,百度ERNIE 3.0轻量化版本 ERNIE-Tiny的性能获得了显著的提升。作为百度面向NLP领域的重要技术方案,基于轻量化技术的ERNIE 3.0轻量版可在搜索排序、推荐、信息抽取、地图检索、自然语言推断等应用场景中为用户提供响应迅速、质量可靠的能力输出。全新第四代英特尔®至强®可扩展处理器及英特尔® AMX技术的引入,配合英特尔® oneAPI深度神经网络库 (英特尔® oneDNN)来调用英特尔®AMX指令,使轻量版ERNIE 3.0在通用CPU平台上也能获得令人满意的推理效能,进而帮助更多用户在其既有 IT 设施中更方便地部署ERNIE 3.0。
此外,AI在科学领域的应用也面临各种挑战——如何让AI模型和物理模型进行联合扩展,如何保证各种AI框架和计算模型、计算框架实现无缝连接等。为此,英特尔还联合百度飞桨共同探索AI for Science领域,借助各种深度学习加速技术,共同助力深度学习技术在AI和科学计算领域的应用,有效提高用户深度学习应用的各种效率。例如,借助英特尔oneAPI提供的深度学习加速库,百度飞桨与传统分子动力学软件LAMMPS进行结合,进而打通了从训练到推理的全流程,实现了从0到1的突破性进展。
为加速一站式边缘AI开发部署,英特尔与百度飞桨合作,使广大开发者可以借助百度飞桨EasyDL快速开发针对边缘硬件优化的模型,并基于英特尔视频AI计算盒与OpenVINO深度学习推理工具在边缘端加速视频AI计算。英特尔视频AI计算盒是一款基于英特尔硬件的高性能、可扩展通用计算平台,覆盖各类行业与场景的商用AI算法,聚合诸多生态伙伴,能够有效应对边缘AI碎片化挑战,并实现云边端灵活部署。基于英特尔视频AI计算盒的以上特点,结合EasyDL全场景、零门槛、广适配的优势,用户可以缩短模型训练周期,并根据实际场景选择不同部署方式,以实现更便捷的落地。
与此同时,英特尔还一直在与百度飞桨合作共同繁荣AI生态,实现共同发展。近年来,英特尔OpenVINO与百度飞桨围绕构建模型、优化及部署三个方面的合作不断深入,不仅帮助开发者减少中间环节,还能够让一些大规模大模型在边缘部署成为可能,优化了整个的边缘推理和操作流程。如今,OpenVINO不仅能够支持飞桨模型在英特尔CPU和集成显卡上部署,还可以支持飞桨模型在英特尔独立显卡上部署。此外,OpenVINO不仅支持飞桨模型在单张独立显卡上部署,还可以通过一行代码支持飞桨模型在多张独立显卡上部署。
如今,以计算、连接、基础设施、人工智能,以及传感和感知为代表的五大基础超级技术力量正在推动科技的创新与发展。在此趋势下,英特尔将继续以“水利万物而不争”的生态之道与更多行业伙伴进行合作,不断践行其“拥抱开源、全栈赋能”的承诺,推动AI技术日趋成熟,加速落地千行百业!
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。