2021年4月15日,上海——今日,以“智能边缘,驱动未来”为主题的英特尔® 智能移动机器参考设计联合签约仪式圆满举办。签约仪式上,英特尔、科沃斯商用机器人、思岚科技共同签署了合作备忘录。三方将在智能移动机器人解决方案及产品的协同研发与资源共享等方面展开更为深入的交流与合作,携手推动智能移动机器人产业的智能变革。会上,三方还围绕行业发展趋势及产业创新挑战等话题进行了深入探讨,并分享了英特尔® 智能移动机器参考设计(MSK)的落地应用情况。
英特尔、科沃斯商用机器人、思岚科技共同签署合作备忘录
英特尔公司物联网事业部中国区首席技术官及高级首席工程师张宇博士表示:“随着服务机器人市场规模的不断扩展,市场对能够实现工作负载整合、人工智能、5G连接、远程可管理性以及数据分析等功能的智能模块的需求不断增长。为此,英特尔推出了英特尔® 智能移动机器参考设计,希望借此化解行业难题,并创立一个易于添加新功能和提升功效的标准。很高兴与科沃斯商用机器人和思岚科技继续深入合作,英特尔将一如既往地与合作伙伴携手同行,创造智能边缘的更多精彩。”
化解行业痛点,为客户创造更大价值
数字技术的进步,正在改变传统自助服务终端向最终用户提供服务的方式,静态和被动的交互式自助服务终端正在向智能移动终端转变。对于机器人行业来说,计算模块不仅需要为复杂的导航和操纵提供计算能力,还需要额外的算力来支持人工智能工作负载、媒体处理,以及其他相关需求。然而,机器人大小不一、功能各异,取决于具体应用的要求,每一个使用案例所需的设计和验证都要经历漫长的周期。
为了更好地化解智能移动机器产业所面临的挑战,英特尔推出了英特尔® 智能移动机器参考设计。英特尔® 智能移动机器参考设计专为应用于各个场景的服务机器人而打造,可帮助解决服务机器人行业中因领域分散以及需求更新快而导致的功能种类繁多、计算模块以及导航工作负载量大、开发周期长等问题,从而帮助合作伙伴加快机器人上市速度并节约定制化成本。
英特尔® 智能移动机器参考设计可以满足包括AMR上的定位、导航和可操作性等在内的基本应用程序的需求。此外,该参考设计还可以配置不同的CPU,以实现不同的功能。通过添加I/O扩展板,参考设计的灵活性将进一步扩展,用户可通过连接图形卡、AI加速卡和运动控制卡,满足视觉识别、AI处理和运动控制等高端的自定义需求。此外,CAN模块的速度和可扩展性还为用户在选择下游传感模块时提供了更多选择。
与此同时,康士达使用英特尔® 酷睿™U系列高效能平台,专用MSK扩展插槽和英特尔® AMT远程管理功能打造了英特尔® 智能移动机器参考设计开发板。该参考设计由支持基本功能的核心板和支持增强功能的扩展板组成,并支持从赛扬到酷睿™i7的CPU配置,很好地满足了从运动控制到视觉算法的计算性能需求。
推动生态发展,释放智能边缘无限潜力
科沃斯商用机器人首席技术官邵长东表示:“英特尔® 智能移动机器参考设计拥有强大的 AI 处理能力,搭配稳定性和易用性高的 OpenVINO™ 开发工具,节省了大量的开发工作量,人体检测推理速度从原来的 10 fps 提升至 20 fps,实时性大幅提升,使主动动迎宾和焦点跟随功能实现真正落地。”
思岚科技首席技术官黄珏珅表示:“英特尔® 智能移动机器参考设计提供了一系列广泛的CPU 选项、灵活的内存配置,以及丰富的可扩展性,帮助企业能够轻松根据各种工作负载来平衡成本和性能。同时,基于英特尔® 智能移动机器平台易于集成的特性,我们也可以通过英特尔专业的技术支持,在短短几周内将平台集成到自己的系统和产品中。”
当前,英特尔正携手广泛客户把握分布式智能的时代机遇,成就精彩,创造无限可能。面向智能边缘,英特尔凭借产品领导力、创新方案推动力、生态构建力,“三力齐发”,携手生态合作伙伴共同解锁智能边缘的广阔机遇,开启中国“数”“智”新时代。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。