这是人工智能的一个新前沿领域,在这个领域中系统可以独立运行。代理型人工智能有潜力革新诸多行业。但其高度的自主性伴随着重大的责任——以及潜在的伦理困境。确保自主导向系统中的责任性、公平性和安全性是建立对这些技术的信任和可靠性的核心所在。
Keeley Crockett是IEEE会员以及《IEEE计算智能新兴话题杂志》的前任副主编,下文中他将重点探讨什么是代理型人工智能、它正在如何被使用以及在未来几年可能会如何发展。
你会如何向没有技术背景的人解释代理型人工智能呢?
代理型人工智能指的是能够独立行动以实现目标而不需要持续人类控制的人工智能系统。这些系统能够基于其程序设定和所处理的数据来做决策、执行操作并适应各种情况,通常不需要人类输入。一个目标可能包含若干个子目标。
关于这些系统在未来可能的应用有几个例子。想象一下你有一个家庭清洁机器人,你只给它下达“保持房屋清洁”的指令。然后这个机器人就会在适当的时候执行任务,比如当它判定地板脏了就进行吸尘,饭后就去洗碗,以及定时把东西放回原位。这个机器人理解目标并且不需要持续的指令就能自主行动。
另一种情形涉及使用代理型人工智能来运营一个营销项目。你可能会告知该系统要将销售额提高20%。然后,一个代理型人工智能系统能够独立分析特定时间段内的客户数据,以识别趋势和偏好。接着,该人工智能将分析客户数据,基于这一分析开展营销活动,并且如果发现活动未达到预期效果就进行调整。
代理型人工智能与传统人工智能模型或自动化系统有何区别?
传统人工智能模型遵循通常从数据中发现的预定义规则。如果没有某种形式的重新训练、测试和验证,这类模型无法自动适应意外的变化。而且还需要人类的监督和干预。传统模型通常是为一项特定任务而构建的,例如分类任务,即构建一个模型来判定一个人是否有可能拖欠贷款还款。
代理型人工智能系统能够独立行动以实现特定目标,不需要持续的人类干预。它们可以从数据中学习、适应新情况并动态调整自身的行动。它们的行为是目标驱动的,并且必须弄清楚如何实现主要目标和子目标,这就要求它们独立于人类对任务进行优先级排序和解决问题。
代理型人工智能有哪些伦理影响?
代理型人工智能的使用引发了几个关键问题。在如此复杂的系统中,如果出现问题,谁来负责?需要哪些数据和隐私保护措施?当代理型人工智能系统要做出具有现实世界影响的“道德”决策时,它应该如何应对?
这些问题对于传统人工智能系统也是一样的。尽管有伦理原则以及现行/新兴的立法作为指导,但我们仍在努力理解并剖析这在实际运作的系统中意味着什么。最大的伦理问题是,人类处于何种位置?
当今是否有正在使用的代理型人工智能模型?它们具备何种程度的自主性?
如今,代理型人工智能被应用于自动驾驶汽车中,基于对车辆周边环境的持续分析来做出驾驶决策。每一次出行都是一次学习体验。
一些网络安全公司使用代理型人工智能通过对网络活动的实时分析来检测组织内的威胁并进行关联。然后,人工智能会自动自主地对潜在的入侵做出响应。
我个人的观点是,随着研究的进展以及数据获取量的增加,代理型人工智能的应用案例将迅速发展。这些系统的准确性取决于一个人愿意分享多少个人数据。
好文章,需要你的鼓励
最新数据显示,Windows 11市场份额已达50.24%,首次超越Windows 10的46.84%。这一转变主要源于Windows 10即将于2025年10月14日结束支持,企业用户加速迁移。一年前Windows 10份额还高达66.04%,而Windows 11仅为29.75%。企业多采用分批迁移策略,部分选择付费延长支持或转向Windows 365。硬件销售受限,AI PC等高端产品销量平平,市场份额提升更多来自系统升级而非新设备采购。
清华大学团队开发出LangScene-X系统,仅需两张照片就能重建完整的3D语言场景。该系统通过TriMap视频扩散模型生成RGB图像、法线图和语义图,配合语言量化压缩器实现高效特征处理,最终构建可进行自然语言查询的三维空间。实验显示其准确率比现有方法提高10-30%,为VR/AR、机器人导航、智能搜索等应用提供了新的技术路径。
新一代液态基础模型突破传统变换器架构,能耗降低10-20倍,可直接在手机等边缘设备运行。该技术基于线虫大脑结构开发,支持离线运行,无需云服务和数据中心基础设施。在性能基准测试中已超越同等规模的Meta Llama和微软Phi模型,为企业级应用和边缘计算提供低成本、高性能解决方案,在隐私保护、安全性和低延迟方面具有显著优势。
IntelliGen AI推出IntFold可控蛋白质结构预测模型,不仅达到AlphaFold 3同等精度,更具备独特的"可控性"特征。该系统能根据需求定制预测特定蛋白质状态,在药物结合亲和力预测等关键应用中表现突出。通过模块化适配器设计,IntFold可高效适应不同任务而无需重新训练,为精准医学和药物发现开辟了新路径。