2019年3月25日,北京——英特尔今天宣布携手人大附中西山学校共建人工智能实验室,围绕人工智能及无人驾驶领域的科普工作及人工智能领域教学资源共建,共同推动人工智能创新技术与教育教学的深度融合,开启中学人工智能教育发展新篇章,为人工智能领域的创新人才储备提供强有力的支持。以“AI赋能,智启教育未来”为主题的智能实验室共建启动仪式在人大附中西山学校举行,英特尔和合作伙伴及学校领导出席了此次启动仪式。此次人工智能实验室的建立是英特尔去年宣布启动的“AI未来先锋计划”的举措之一,也是英特尔积极响应国家智能战略,在中小学教育领域的有益尝试。
在此次西山学校人工智能实验室的建设中,英特尔将携手合作伙伴北京联合伟世科技股份有限公司共同推进西山学校在人工智能领域教学资源共建工作,为学校提供完整适用的人工智能实验室和面向实验环境的智能教具,并且针对无人驾驶等特定领域提供智能课程、科普活动及应用训练实践。英特尔在人工教育科普课程解决方案拥有领先的核心优势,包括基于英特尔的硬件计算能力和数据训练方法,能够为中小学生及高校提供全套的人工智能科普及动手实践课程。
人工智能已成为引领未来的新兴技术,中国将人工智能列为国家重点发展战略,对人工智能的发展做出了总体部署,全面加速人工智能在研发应用和人才培养的步伐。国务院在2017年印发的《新一代人工智能发展规划》中更是明确指出“实施全民智能教育项目,在中小学阶段设置人工智能相关课程。建设和完善人工智能科普基础设施,充分发挥各类人工智能创新基地平台等的科普作用。”英特尔在2018年推出的“AI未来先锋计划”,聚焦前沿研究、师资建设、人才培养、产业对接,正是体现了英特尔凭借自身技术创新优势推动人工智能人才培养和加速发展的承诺。
英特尔、人大附中西山学校及联合伟世共同启动AI实验室
“英特尔拥有丰富的人工智能解决方案组合和强大生态系统支持,致力于促进人工智能的创新,并推动人工智能从理论走向实践。”英特尔公司市场营销集团副总裁兼中国业务总经理王稚聪表示,“人工智能不断发展,人才是关键。英特尔与教育界和科研机构合作由来已久,通过类似与人大附中西山学校共建人工智能实验室等方式,将领先的技术、理念、课程等资源与人才培养对接,为打造中国人工智能高素质人才,不断推动技术发展和突破贡献力量。”
人大附中西山学校是全国智慧校园建设百强示范校,学校致力于将人工智能与传统教学相结合,为国家培养有能力人才。人大附中西山学校校长刘彦表示:“人工智能教学在中学的科普落地是我们重点关注的领域之一,并且一直在寻找合适的课程方案,以推动人工智能创新技术与教育教学的深度融合。此次,我们十分高兴能与英特尔公司及其合作伙伴就人工智能-自动驾驶科普课程方面达成合作。此次实验室的建立是三方积极响应国家智能战略,携手推动人工智能在教育行业落地,为培养中学生具备面向未来的科学素养而共同努力的见证。”
在实验室共建工作中,英特尔将积极提供人工智能领域的相关技术和课件,以及端到端的解决方案——凭借硬件算力,应用感知计算、边缘计算平台方案,以及OpenVINO工具包,助力计算机视觉和深度学习开发,并且提供跨平台的灵活性支持和兼容主流的深度学习框架,将人工智能赋能到各种计算平台。不仅如此,通过数据训练的方法,英特尔提供面对中学生的全套人工智能科普和动手实践课程,帮助教师和学生了解人工智能基本概念,包括大数据、机器学习、深度学习、计算机视觉、人机交互、AI推理、智能控制、机器感知、推理、行动,模仿人类心智、拥有‘学习’和‘解决问题’能力。这次实验室的建立能够帮助学生发挥创造力和想象力,实现包括但并不限于自动驾驶等智能功能,通过三方的密切合作,共同推动人工智能技术与教育教学、科学科普的深度融合,使智能教育落地工作稳步推进。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。