
这是人工智能的一个新前沿领域,在这个领域中系统可以独立运行。代理型人工智能有潜力革新诸多行业。但其高度的自主性伴随着重大的责任——以及潜在的伦理困境。确保自主导向系统中的责任性、公平性和安全性是建立对这些技术的信任和可靠性的核心所在。
Keeley Crockett是IEEE会员以及《IEEE计算智能新兴话题杂志》的前任副主编,下文中他将重点探讨什么是代理型人工智能、它正在如何被使用以及在未来几年可能会如何发展。
你会如何向没有技术背景的人解释代理型人工智能呢?
代理型人工智能指的是能够独立行动以实现目标而不需要持续人类控制的人工智能系统。这些系统能够基于其程序设定和所处理的数据来做决策、执行操作并适应各种情况,通常不需要人类输入。一个目标可能包含若干个子目标。
关于这些系统在未来可能的应用有几个例子。想象一下你有一个家庭清洁机器人,你只给它下达“保持房屋清洁”的指令。然后这个机器人就会在适当的时候执行任务,比如当它判定地板脏了就进行吸尘,饭后就去洗碗,以及定时把东西放回原位。这个机器人理解目标并且不需要持续的指令就能自主行动。
另一种情形涉及使用代理型人工智能来运营一个营销项目。你可能会告知该系统要将销售额提高20%。然后,一个代理型人工智能系统能够独立分析特定时间段内的客户数据,以识别趋势和偏好。接着,该人工智能将分析客户数据,基于这一分析开展营销活动,并且如果发现活动未达到预期效果就进行调整。
代理型人工智能与传统人工智能模型或自动化系统有何区别?
传统人工智能模型遵循通常从数据中发现的预定义规则。如果没有某种形式的重新训练、测试和验证,这类模型无法自动适应意外的变化。而且还需要人类的监督和干预。传统模型通常是为一项特定任务而构建的,例如分类任务,即构建一个模型来判定一个人是否有可能拖欠贷款还款。
代理型人工智能系统能够独立行动以实现特定目标,不需要持续的人类干预。它们可以从数据中学习、适应新情况并动态调整自身的行动。它们的行为是目标驱动的,并且必须弄清楚如何实现主要目标和子目标,这就要求它们独立于人类对任务进行优先级排序和解决问题。
代理型人工智能有哪些伦理影响?
代理型人工智能的使用引发了几个关键问题。在如此复杂的系统中,如果出现问题,谁来负责?需要哪些数据和隐私保护措施?当代理型人工智能系统要做出具有现实世界影响的“道德”决策时,它应该如何应对?
这些问题对于传统人工智能系统也是一样的。尽管有伦理原则以及现行/新兴的立法作为指导,但我们仍在努力理解并剖析这在实际运作的系统中意味着什么。最大的伦理问题是,人类处于何种位置?
当今是否有正在使用的代理型人工智能模型?它们具备何种程度的自主性?
如今,代理型人工智能被应用于自动驾驶汽车中,基于对车辆周边环境的持续分析来做出驾驶决策。每一次出行都是一次学习体验。
一些网络安全公司使用代理型人工智能通过对网络活动的实时分析来检测组织内的威胁并进行关联。然后,人工智能会自动自主地对潜在的入侵做出响应。
我个人的观点是,随着研究的进展以及数据获取量的增加,代理型人工智能的应用案例将迅速发展。这些系统的准确性取决于一个人愿意分享多少个人数据。
好文章,需要你的鼓励
英特尔第三季度财报超华尔街预期,净收入达41亿美元。公司通过裁员等成本削减措施及软银、英伟达和美国政府的大额投资实现复苏。第三季度资产负债表增加200亿美元,营收增长至137亿美元。尽管财务表现强劲,但代工业务的未来发展策略仍不明朗,该业务一直表现不佳且面临政府投资条件限制。
美国认知科学研究院团队首次成功将进化策略扩展到数十亿参数的大语言模型微调,在多项测试中全面超越传统强化学习方法。该技术仅需20%的训练样本就能达到同等效果,且表现更稳定,为AI训练开辟了全新路径。
微软发布新版Copilot人工智能助手,支持最多32人同时参与聊天会话的Groups功能,并新增连接器可访问OneDrive、Outlook、Gmail等多项服务。助手记忆功能得到增强,可保存用户信息供未来使用。界面新增名为Mico的AI角色,并提供"真实对话"模式生成更机智回应。医疗研究功能也得到改进,可基于哈佛健康等可靠来源提供答案。同时推出内置于Edge浏览器的Copilot Actions功能,可自动执行退订邮件、预订餐厅等任务。
纽约大学等机构联合开发的ThermalGen系统能够将普通彩色照片智能转换为对应的热成像图片,解决了热成像数据稀缺昂贵的难题。该系统采用创新的流匹配生成模型和风格解耦机制,能适应从卫星到地面的多种拍摄场景,在各类测试中表现优异。研究团队还贡献了三个大规模新数据集,并计划开源全部技术资源,为搜救、建筑检测、自动驾驶等领域提供强有力的技术支撑。