人形机器人技术正成为科技界最炙手可热的领域,全球涌现数十家初创企业,吸引着数十亿美元的新投资。但投资者仍在寻找完美的应用场景,也就是机器人技术的进步能够契合更广泛市场的经济需求的领域。
IEEE高级会员Ayanna Howard表示:“这中间存在很大的差距,当我考虑机器人的可部署性时,我也会考虑成本问题。”
Howard是在《华尔街日报》的《Bold Names》播客节目中发表上述言论的。节目主持人兼科技专栏作家Christopher Mims指出,“在美国,一些对人工智能未来发展做决策的最具影响力的人物都愿意倾听Howard的见解。”
这是一场引人入胜且内容广泛的讨论,涉及该领域的重大进展、机器人技术与生成式人工智能的融合,以及当前该技术的局限性,包括缺乏支持机器人广泛部署的数字基础设施等问题。
Howard说:“如果你在虚拟环境中与人工智能相连,而网络带宽又不给力,那你只需等上几秒,答案就会出来。但在机器人领域,如果丢失了一秒钟的信息,就可能导致机器人摔倒或者伤到别人。所以我认为,我们面临这样一个脱节的问题:我们是否拥有能在不到一毫秒、甚至纳秒的时间内完成操作且不丢失任何连接的基础设施呢?我们目前还没有真正解决这个问题。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。