2019年10月17日,北京——今天,在北京举行的2019年英特尔创新加速器AI合作伙伴峰会上,英特尔与合作伙伴一起启动 “英特尔AI100创新激励计划”(简称“AI100计划”)第二期。主题为“激励百佳创新,加速千亿产业”的AI100计划是英特尔持续打造AI创新生态的又一重要举措,也是“英特尔人工智能创新激励计划”的进一步拓展和深化升级。英特尔基于其全面完整的人工智能产品组合和软硬件协同创新的独特优势,联合产业生态合作伙伴,汇聚技术、资本、生态、市场和产业等全方位资源联合,帮助一百家优秀的人工智能创新创业团队优化产品和解决方案,为团队的成长和壮大提供全面创新加速,促进人工智能与产业深度融合,推动人工智能领域生态发展和智能应用落地。
此前,英特尔在2018年底启动了 “英特尔人工智能创新激励计划”第一期,吸引了近百个人工智能优质项目参与激烈竞逐。经过数十位技术专家及行业领袖层层把关与专业评审,最终12支创新创业团队脱颖而出,其项目涵盖智慧城市、智能工厂、智慧医疗、智能安防、智慧零售、智慧教育和智慧金融等多个重要应用领域,这其中更有不少优秀团队已经落地应用并开始实施部署,例如:深圳鲲云信息科技有限公司致力于为物联网提供人工智能加速解决方案,其解决方案目前已在航空航天、智慧城市、安防、工业等领域应用落地;北京先声智能科技有限公司,深耕智慧教育领域,专注于AI技术与教学场景的深度融合,升级传统教育模式;睿视智觉(厦门)科技有限公司,聚焦人工智能的计算机视觉应用和芯片级加速技术,提供图像信息解析及系统服务。在为期7个多月的深入对接中,英特尔为入选的人工智能创新团队提供了项目技术咨询、投融资对接、技术辅导、市场推广、开发费用补贴等多维度支持,为其共同打造了独特的落地解决方案,让产品能拓展到更多更广的市场。
英特尔中国战略合作与创新业务部董事总经理、英特尔创新加速器总负责人李德胜表示:“英特尔不仅是一家具有创新基因的科技公司,更是一家持续促进产业生态良性进化的公司。随着自身的转型,英特尔正在加速推进智能互联世界以数据为中心的创新步伐,构建面向未来的产业生态,推动基于人工智能等转折性技术的应用突破和落地实施,在驱动自身创新的同时,推动产业生态共同创新。我们将凭借独特的从云到端的技术优势和联动上下游产业的能力与经验,为人工智能创新生态提供更加全面且深度的加速。”
英特尔公司市场营销集团行业解决方案部中国区总经理梁雅莉表示:“人工智能应用场景多样而复杂,推动人工智能应用突破和落地,需要完整的解决方案。英特尔提供从计算到网络到存储的全面产品组合,并通过软硬件协同创新推动AI发展,满足客户的多元需求。通过“AI100计划”,英特尔将自身创新实力和广泛行业资源全面赋能优秀创新团队,帮助其解决AI应用痛点,加快AI在不同业务场景中的落地。”
“英特尔AI100创新激励计划”将分期分批选拔逾100家优秀AI创新团队,落地领域包括但不限于教育、医疗、零售、金融、工业等应用领域。并为其提供技术辅导、开发费用补贴、市场推广、生态对接等多方面支持,具体包括:
在人工智能无处不在的未来愿景中,英特尔人工智能战略能够满足多种多样的人工智能应用需求。英特尔专注于硬件、软件和生态合作三个方面:硬件方面,英特尔提供多样化的硬件产品组合与计算集成平台,满足从云到边缘再到设备的不同工作负载需求;软件方面,英特尔提供一系列通用工具集,帮助用户最大化利用硬件,持续优化和提升深度学习性能;同时,英特尔通过打造广泛的生态圈与紧密的伙伴式合作,与客户、合作伙伴分享其在各个领域的经验与创新成果,全面助推AI与各行各业的融合,探索更多的AI应用场景,推动应用突破。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。