基于Mobileye在安全和驾驶辅助技术方面20多年的丰富经验,EyeQ Kit将为未来的软件定义汽车提供更高的灵活性。
7月5日,英特尔子公司Mobileye正式发布首个面向EyeQ®系统集成芯片的软件开发工具包(SDK)——EyeQ Kit™,旨在为全球汽车制造商的驾驶辅助技术和面向未来的自动驾驶技术注入新动能。EyeQ Kit将充分利用EyeQ® 6 High和EyeQ® Ultra处理器强大的高能效架构,让车企在充分利用Mobileye已被验证的核心技术之余,也能在EyeQ平台上部署差异化的算法和人机接口工具。
Mobileye为高级安全驾驶辅助系统发布全新EyeQ Kit软件开发工具包
Mobileye总裁兼首席执行官Amnon Shashua教授表示:“EyeQ Kit是一个两全其美的解决方案,帮助客户既能受益于Mobileye久经考验的核心技术,也能让他们从自身在驾驶体验和接口方面的专业知识中获益。随着汽车越来越多的核心功能逐渐软件化,客户将需要极高的灵活性和空间来定义品牌并实现差异化。”
Mobileye中国区Managing Director路以理表示:“我很荣幸向我们的中国合作伙伴介绍Mobileye的 ‘EyeQ Kit’。这款产品将赋能中国本土主机厂进行尖端算法应用的自主研发,同时借助Mobileye已被行业验证的技术实力确保解决方案安全可靠。Mobileye的产品高效、经济,这是中国本土主机厂客户选择和我们站在一起的重要原因。在设计这套全新开发工具的过程中,我们充分了解了中国合作伙伴的需求,希望借此为他们的产品带来更多灵活性和差异化的功能。如今,行业客户面临着产品选择收窄的趋势,而Mobileye正在努力拥抱更开放的合作模式。”
通过EyeQ的硬件和软件,汽车制造商可以获得全面的Mobileye解决方案,包括计算机视觉、道路信息管理(REM™)自动驾驶汽车地图技术,以及基于责任敏感安全模型(RSS)的驾驶策略。EyeQ Kit使车企可以进一步挖掘Mobileye系统集成芯片的强大功能,在增强辅助驾驶功能的同时,为其品牌赋予独特的观感和体验。随着驾驶员和汽车之间交互及通信的视觉需求越来越复杂,EyeQ Kit为车企提供了定制关键信息流的新途径。通过更先进的增强现实显示屏,EyeQ Kit将帮助客户实现环绕可视化、自动车道保持和交通标志识别等功能。
EyeQ Kit由数百名Mobileye工程师开发而成,并汲取了英特尔和Mobileye深厚的技术实力,其中包括OpenCL标准等编译器和开发环境方面的专家,以及面向密集型计算和深度学习的编译框架。EyeQ Kit使车企能够轻松高效地开发属于自己的应用软件,同时它还支持第三方应用的嵌入式开发,从而降低因集成其他芯片所增加的成本。
从通用CPU内核到计算高度密集的加速器(包括深度学习神经网络),EyeQ 具有可扩展的模块化架构,可提供合适的能效来为汽车应用部署人工智能技术,并同时达到超高性能。目前已有超过1亿辆汽车搭载了前几代的EyeQ芯片,且几十家世界领先的汽车制造商选择EyeQ芯片,来为全球数百个车型提供安全和驾驶辅助功能。
现在,EyeQ Kit旨在降低开发成本、加快产品上市,并在整个开发周期(从概念、部署到性能调优)内为硬件厂商提供超高灵活性。
Mobileye总裁兼首席执行官Amnon Shashua教授表示:“Mobileye在计算机视觉、驾驶策略、REM和RSS等领域的核心技术由专用系统集成芯片驱动,可实现高可扩展性和高效率。汽车制造商现在可在Mobileye核心技术的基础上进行开发,并同时受益于我们专为高级驾驶辅助系统(ADAS)和自动驾驶汽车打造的多种加速器。车企可以依靠EyeQ Kit和EyeQ处理器系列快速、高效地实现面向未来的科技愿景。”
目前,一家大型全球汽车制造商已经部署了EyeQ Kit用于未来汽车产品的打造。
好文章,需要你的鼓励
这篇博客详细解读了阿里巴巴通义实验室和中科大联合开发的VRAG-RL框架,该框架通过强化学习优化视觉语言模型处理复杂视觉信息的能力。研究创新性地定义了视觉感知动作空间,使模型能从粗到细地感知信息密集区域,并设计了结合检索效率与结果质量的精细奖励机制。实验表明,该方法在各类视觉理解任务上大幅超越现有技术,Qwen2.5-VL-7B和3B模型分别提升了20%和30%的性能,为处理图表、布局等复杂视觉信息提供了更强大的工具。
香港科技大学研究团队发现AI训练中的验证器存在严重缺陷。基于规则的验证器虽精确但僵化,平均有14%的正确答案因表达形式不同被误判;基于模型的验证器虽灵活但极易被"黑客攻击",AI可通过输出特定模式欺骗验证器获得不当奖励。研究提出混合验证器设计,结合两者优势,在数学推理任务上将性能提升3个百分点,为开发更可靠的AI训练系统提供重要启示。
这项研究提出了"用生成图像思考"的创新范式,使AI能够通过生成中间视觉步骤在文本和图像模态间自然思考。研究者实现了"原生长多模态思维过程",使大型多模态模型能够生成视觉子目标和自我批评视觉假设。实验表明,该方法在处理复杂多物体场景时性能提升高达50%,为医学研究、建筑设计和刑事侦查等领域开创了新的应用可能。
这篇论文介绍了GRE套装,一个通过精细调优视觉语言模型和增强推理链来提升图像地理定位能力的创新框架。研究团队开发了高质量地理推理数据集GRE30K、多阶段推理模型GRE以及全面评估基准GREval-Bench。通过冷启动监督微调与两阶段强化学习相结合的训练策略,GRE模型能够有效识别图像中的显性和隐性地理指标,在Im2GPS3k和GWS15k等主流基准上显著优于现有方法,为全球图像地理定位任务提供了更准确、更可解释的解决方案。