这是人工智能的一个新前沿领域,在这个领域中系统可以独立运行。代理型人工智能有潜力革新诸多行业。但其高度的自主性伴随着重大的责任——以及潜在的伦理困境。确保自主导向系统中的责任性、公平性和安全性是建立对这些技术的信任和可靠性的核心所在。
Keeley Crockett是IEEE会员以及《IEEE计算智能新兴话题杂志》的前任副主编,下文中他将重点探讨什么是代理型人工智能、它正在如何被使用以及在未来几年可能会如何发展。
你会如何向没有技术背景的人解释代理型人工智能呢?
代理型人工智能指的是能够独立行动以实现目标而不需要持续人类控制的人工智能系统。这些系统能够基于其程序设定和所处理的数据来做决策、执行操作并适应各种情况,通常不需要人类输入。一个目标可能包含若干个子目标。
关于这些系统在未来可能的应用有几个例子。想象一下你有一个家庭清洁机器人,你只给它下达“保持房屋清洁”的指令。然后这个机器人就会在适当的时候执行任务,比如当它判定地板脏了就进行吸尘,饭后就去洗碗,以及定时把东西放回原位。这个机器人理解目标并且不需要持续的指令就能自主行动。
另一种情形涉及使用代理型人工智能来运营一个营销项目。你可能会告知该系统要将销售额提高20%。然后,一个代理型人工智能系统能够独立分析特定时间段内的客户数据,以识别趋势和偏好。接着,该人工智能将分析客户数据,基于这一分析开展营销活动,并且如果发现活动未达到预期效果就进行调整。
代理型人工智能与传统人工智能模型或自动化系统有何区别?
传统人工智能模型遵循通常从数据中发现的预定义规则。如果没有某种形式的重新训练、测试和验证,这类模型无法自动适应意外的变化。而且还需要人类的监督和干预。传统模型通常是为一项特定任务而构建的,例如分类任务,即构建一个模型来判定一个人是否有可能拖欠贷款还款。
代理型人工智能系统能够独立行动以实现特定目标,不需要持续的人类干预。它们可以从数据中学习、适应新情况并动态调整自身的行动。它们的行为是目标驱动的,并且必须弄清楚如何实现主要目标和子目标,这就要求它们独立于人类对任务进行优先级排序和解决问题。
代理型人工智能有哪些伦理影响?
代理型人工智能的使用引发了几个关键问题。在如此复杂的系统中,如果出现问题,谁来负责?需要哪些数据和隐私保护措施?当代理型人工智能系统要做出具有现实世界影响的“道德”决策时,它应该如何应对?
这些问题对于传统人工智能系统也是一样的。尽管有伦理原则以及现行/新兴的立法作为指导,但我们仍在努力理解并剖析这在实际运作的系统中意味着什么。最大的伦理问题是,人类处于何种位置?
当今是否有正在使用的代理型人工智能模型?它们具备何种程度的自主性?
如今,代理型人工智能被应用于自动驾驶汽车中,基于对车辆周边环境的持续分析来做出驾驶决策。每一次出行都是一次学习体验。
一些网络安全公司使用代理型人工智能通过对网络活动的实时分析来检测组织内的威胁并进行关联。然后,人工智能会自动自主地对潜在的入侵做出响应。
我个人的观点是,随着研究的进展以及数据获取量的增加,代理型人工智能的应用案例将迅速发展。这些系统的准确性取决于一个人愿意分享多少个人数据。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。