对于大众来说,人工智能(AI,artificial intelligence)可以说已经非常常见和熟悉了。但是通用人工智能(AGI,Artificial General Intelligence)呢?它是一个长期以来在科幻和哲学中讨论的概念,它指的是具有类似人类推理能力的AI。
当聊天机器人和生成式人工智能逐步进入了消费大众的视线,AI掌握了一定的自学习能力,技术迭代的速度大幅提升。然而,大多数专家意识到它们无法像人类那样进行推理。
IEEE会员Karthik K.认为,尽管取得了许多突破,但生成式人工智能缺乏类似人类的推理能力,因为它基于模式和数据进行操作,而没有掌握它们的含义,无法将已经学到的概念扩展到新的使用场景中。
那么AI和AGI之间有什么区别呢?我们如何知道它何时达到了人类决策的水平?这些问题很难回答,部分原因是没有一个公认的AI定义,更不用说AGI了。
但这些问题仍然很重要,因为它们阐明了当今技术的能力和局限性。
AI没有明确的定义
人工智能的定义是模糊的,涉及多个学科。《IEEE人工智能汇刊》(https://ieeexplore.ieee.org/document/9523786)的一篇社论指出,来自计算机科学、心理学、生物学、数学和物理学等多个学科的学者试图对其进行定义。
社论指出:“每一个定义都受到了批评,所以未能在每一个学科内达成共识,更不用说普遍共识了。”
AGI测试
在缺乏对AGI的明确定义的情况下,许多理论家提出了对通用人工智能的各种测试。这个想法是,我们可能无法定义它,但也许当我们看到它时就会知道。
最著名的是1950年的图灵测试,该测试设想召集一组专家向“先知”提问。同样,如果专家们无法判断答案来自人类还是机器,那么根据测试 ——AGI被认为具有人类智能。
苹果公司的创始人之一、IEEE Fellow Steve Wozniak将咖啡测试作为AGI的一项指标。在测试过程中,机器人必须进入普通家庭并尝试制作咖啡。这意味着要找到所有的工具,找出它们如何运作,然后执行任务。能够完成这个测试的机器人将被认为是AGI的一个例子。
聊天机器人正处于AGI的风口浪尖上吗?
根据IEEE计算机学会出版的《计算机》杂志的一篇深入讨论(https://www.computer.org/csdl/magazine/co/2023/10/10255223/1QzypCsRrgs),AI与其类人对应物之间的差异存在于一个连续体上。早期的AI发展了单一领域的专业知识,比如国际象棋和围棋。今天的高级人工智能可以理解语言,将语言翻译成图像,并分析图像中癌症的迹象等。
尽管这些成就令人印象深刻,但它们并不像人类那样思考和推理。
那么,聊天机器人离实现AGI还有多远呢?
乍一看,像ChatGPT这样的聊天机器人非常接近通过图灵测试,被归类为AGI。他们可以自信地写出覆盖各种学科种类的合理优秀的文章。
虽然聊天机器人甚至可以通过法律等领域的专业许可考试,但它们在基础层面也会面临失败 —— 聊天机器人经常把数学题弄错。他们对引用的属性错误,并不总是理解因果关系,在推理问题上得出错误的答案。
IEEE会员Sukanya Mandal表示:“实现AGI的下一步可能涉及开发人工智能系统,这些系统可以在广泛的领域展示更先进的推理、解决问题和学习能力。这可能包括将知识从一个环境转移到另一个环境的能力,从有限的数据或例子中学习的能力,以及在新的情况下表现出创造力和适应性的能力。”
好文章,需要你的鼓励
苏黎世大学的实验显示,AI的说服成功率达到9-18%,而人类平均只有2.7%,AI比人类强6倍。在4个月内,13个AI账号成功说服了上百位Reddit用户改变观点,且没有人识破它们的身份
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
Roig Arena 将于 2025 年 9 月在瓦伦西亚开业,借助 Extreme Networks 的 6GHz Wi-Fi 与数据分析技术,实现无缝运营与个性化观众体验,打造全天候活动中心。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。