
宋继强
英特尔研究院副总裁、英特尔中国研究院院长
2022年初,国家智慧教育平台正式上线,同年,教育部亦印发了关于该平台的两项教育行业标准以要求提升各类智慧教育平台建设与应用水平,这一年,成为了实施国家教育数字化战略行动的开局之年。今年2月,由中共中央国务院公布的《数字中国建设整体布局规划》继续强调,要促进数字公共服务普惠化,大力实施国家教育数字化。随着这一系列政策规划与指导性文件的出台,智慧教育在全国范围内加速推进,与此同时,人们也越来越意识到,正确看待智能技术的应用与发展已成为了开展智慧教育的重要保障。
算力是驱动智慧教育的重要动力。如何更加高效地部署算力,是智慧教育能否得以普及的关键。神经拟态计算作为大范围的类脑生态技术,能够模拟人脑神经元的构造,在并行计算的同时能够学会并适应多模态或多样化的任务,将计算能效比大幅提升至传统CPU、GPU等计算硬件的千倍以上,从而更好地赋能人工智能新应用。目前,英特尔研究院基于英特尔4制程工艺的最新神经拟态计算芯片Loihi 2能够在32平方毫米的微小面积上实现多达100万个神经元,相较于前代产品,其资源密度与处理能力的提升分别高达15倍1与10倍2,并拥有更低的能耗。同时,由英特尔发起的神经拟态研究社区已囊括逾200家组织与机构,其中不乏国内外领先的学术机构、企业与政府实验室。
通过广泛而深入的生态合作,英特尔正以科技创新加速人工智能应用落地与升级。作为腾讯的重要产业合作伙伴之一,我们提供了拥有超强AI功能的第四代至强可扩展处理器,该处理器内置AMX加速器以及专门的硬件加速指令,不仅极大地提升了腾讯Angel机器学习平台上BERT模型的AI训练与推理性能,有效优化搜索等业务领域AI用户体验,同时,亦助力腾讯明眸极速高清突破技术瓶颈,在提升视频增强性能的同时大幅降低运维复杂度与运营成本。英特尔正在多方面不断促进产学融合。此外,英特尔亦多方面不断促进产学融合。在初高中理化生实验视频考试中,教师通过长时间观看录制的视频进行判卷评估极易产生疲劳。为此,英特尔利用人工智能技术和视频输入为K12教师提供解决方案。我们提出了一个层次化的过程视觉理解框架,将视觉感知与知识图谱结合在一个统一的框架中,该框架适用于不同类型的考试,不仅可以有效提高评分效率,将教师从繁重的视频阅卷工作中解放出来,使其能够利用有限的时间为学生提供更具针对性的教学和支持,同时也为智慧教育带来了更多可能性与机会。
作为数字生态与智慧教育的长期耕耘者,我们深知人工智能的未来必将掌握在年轻一代的手中。因此,30年来,英特尔始终坚持投入并支持中国教育发展,近年来,亦通过多样化的特色项目推动创新人才培养,与中国青年才俊共探人工智能、数字化和可持续发展。从“产学协同培养工程人才”,到“数字化人才培养”,英特尔连续多年成为教育部优秀合作伙伴。值得一提的是,在日前结束的2023中美青年创客大赛总决赛上,来自上海交通大学的基于英特尔计算平台的自动驾驶微缩车整车在环仿真控制系统成功斩获一等奖与英特尔特别奖。
展望未来,教育与技术的深度融合之路才刚刚开始,在人机协同的未来发展趋势中,各界如何秉持以人为本的理念,兼顾效率的提升与教育的人文关怀,从而激发青年一代的创造力,无疑将成为更加深刻的话题。在这一过程中,英特尔也将持续深化合作,以先进的人工智能技术和软硬件融合推动产学携手共进,助力中国教育的发展。
说明:
1 详情及更多配置信息请见:www.intel.cn/content/www/cn/zh/research/neuromorphic-computing.html
2 详情及更多配置信息请见:www.intel.cn/content/www/cn/zh/research/neuromorphic-computing.html
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。