机器人正在成为我们的队友,无论它们是用于制造业、医院,甚至是用于像协助行动不便者这样的日常任务。然而,要使这种协作取得成功,机器人必须能够识别人类日常所做动作的力度和细微变化。
例如,它们必须能够识别你拿易碎物品时有多轻柔,或者你切菜时按下去有多用力。难题在于,这些手部力量很难预测。想想拿起一个咖啡杯和搬一箱书的感觉有多么不同。你的动作因任务而异;要让机器识别这种差异,光靠直觉是不够的。这就像教一个从未做过饭的人如何揉面团。压力太小会使面团碎掉,压力太大则会破坏面团的质地。
这就是我们开发的一种新方法——分层递归初始残差变换器(hierarchical recurrent-inception residual transformer,简称HRIRT,https://ieeexplore.ieee.org/document/10605060)发挥作用的地方。这就像是赋予机器人自己的“肌肉记忆”和直觉。该方法使用了一种称为力肌图(FMG)传感器的先进传感器,这种非侵入性传感器附着在人体上,可以检测肌肉收缩的变化。在我团队最近进行的研究中,FMG传感器被附着在一个人的手上,使我们能够实时监测施加的精确压力量。
然后,提出的HRIRT就像一个翻译器,即时解释这些数据,并预测一个人在推、举或抓东西时用力的大小或轻柔程度。
设想一个机器人帮助一位难以提起重物的老人。机器人需要知道这个人在提起东西时付出了多少力气,这样它就能在提供帮助时既不会越俎代庖也不会造成伤害。这种方法训练机器人去“感知”这种用力情况并做出适当反应,根据需要调整其帮助力度。这使得人机协作互动安全、高效且直观,就像与一位知道何时介入、何时让你主导的人类同事共事一样。
HRIRT方法不仅让机器人成为更好的队友,还为它们在日益复杂的任务中的应用奠定了基础。这项技术有可能改变人类和机器人在众多领域的协作方式,无论是精密手术、帮助残障人士还是具有挑战性的任务。这项研究真正令人着迷的地方在于我们如何通过结合人工智能的最新进展来解决这个难题,从而迈向一个与机器人共事就像与人互动一样自然的时代。我们正在走向这样一个未来:机器人懂得如何完成我们分配给它们的任务,从而实现更安全、更智能、更轻松的协作互动。
好文章,需要你的鼓励
四川大学研究团队发现,当前先进的AI模型在面对信息不完整的数学问题时,缺乏主动询问澄清信息的能力,更倾向于基于假设给出答案。
中南大学等机构联合发布TextAtlas5M数据集,包含500万图像-文本对,专门解决AI长文本图像生成难题。该数据集平均文本长度148.82词,远超现有数据集,涵盖广告、学术、教育等真实场景。配套的TextAtlasEval基准测试显示,即使最先进的商业模型也面临显著挑战,为AI图像生成技术指明了新的发展方向。
从11岁就梦想造人形机器人的Bernt Bornich,用'huggable'形容他的Neo Gamma机器人——这个能举起150磅的66磅'运动员',正以家庭为试验场突破AI学习瓶颈:'工厂20小时就触及学习天花板,而家庭环境的多样性才是通往AGI的钥匙'。
剑桥大学研究团队创建了史上最难的AI视觉测试ZeroBench,包含100道精心设计的视觉推理题目。在这项测试中,包括GPT-4o、Claude、Gemini在内的20个全球最先进AI模型全部得了0分,暴露了当前AI在基础视觉理解上的严重缺陷。研究发现AI主要在计数、空间推理等基础任务上失败,而非逻辑推理能力不足。