
2021年,一组研究人员开始量化人工智能伦理话题的热度(https://www.computer.org/csdl/magazine/co/2021/01/09321834/1qmbkXCazy8)。他们在Google Scholar上搜索人工智能和伦理的参考文献。他们发现这一领域存在显著增长。在1985年至2018年的30多年里,他们发现了275篇专注于人工智能伦理的学术文章。而仅2019年一年,就发表了334篇相关文章,比过去34年的总和还要多。2020年,又增加了342篇文章。
对人工智能伦理的研究呈爆炸式增长,其中大部分集中在构建人工智能模型的指导方针上。现在,基于人工智能的工具向公众广泛提供。这让学校、企业和个人不得不弄清楚如何以安全、无偏见和准确的方式合乎道德地使用人工智能。
IEEE会员Sukanya Mandal指出,许多公众尚未充分了解或准备好以完全负责任的方式使用AI工具,他们对隐私、偏见、透明度和问责等潜在问题缺乏认识。
幻觉和不准确:人工智能用户最大的陷阱
由于它们的构建方式,大多数生成的人工智能模型都容易产生幻觉。他们只是捏造事实,看似权威的结果给人一种自信的感觉。这对用户来说是一个风险,他们可能会收到虚假信息。在美国,使用生成人工智能的律师在试图使用聊天机器人起草法律文件时艰难地吸取了这一教训,却发现人工智能编造了他们在辩论中引用的不存在的案例作为先例。
IEEE主席Tom Coughlin表示:“人工智能可能并不总是准确的,因此需要检查其信息。”
我们能相信人工智能做出的决定吗?
人工智能模型是根据大量数据进行训练的,有时它们会根据人类难以理解的极其复杂的数学函数做出决策(https://transmitter.ieee.org/why-we-need-explainable-ai/)。用户通常不知道人工智能为什么做出了该决定。
Mandal说:“许多人工智能算法都是决策不透明的‘黑匣子’。但特别是在医疗保健、法律决策、金融和招聘等高风险领域,无法解释的人工智能决策是不可接受的,会削弱问责制。如果人工智能拒绝某人贷款或工作,一定存在可以理解的原因。”
如果我们过于信任AI,会发生什么?
由于人工智能模型是在如此大的数据集上训练的,它们可能会诱使用户产生虚假的信心,导致他们不经思索地接受决策。
在最近一项针对全球技术领导者的调查“The Impact of Technology in 2024 and Beyond: an IEEE Global Study”中,59%的受访者认为“不准确和过度依赖人工智能”是他们组织在使用生成人工智能时最担心的问题之一。
为什么知道哪些数据用于训练人工智能模型很重要?
想象一下:一个人工智能模型被用来筛选求职者。它根据前几年收集的数据将简历转发给招聘经理,并接受培训以确定最有可能得到这份工作的人。除此之外,该行业传统上一直由男性主导。人工智能可以学会识别女性的名字,从而自动排除这些申请者,这不是基于她们的工作能力,而是基于她们的性别。
这种算法偏差可以也确实存在于人工智能训练数据中,这使得用户了解模型是如何训练的非常重要。
Mandal说:“确保无偏见的数据是人工智能开发生命周期和持续过程中的共同责任。首先,那些获取数据的人要意识到偏见的风险,并使用不同的、有代表性的数据集。人工智能开发人员应该积极分析数据集的偏见。人工智能部署人员应该监控现实世界的偏见表现。当人工智能遇到新数据时,需要进行持续的测试和调整。独立审计也很有价值。任何人都不能只把减轻偏见的工作交给过程中的其他人。”
你应该告诉人们何时使用人工智能吗?
披露正在成为人工智能使用的一个关键原则。例如,当人工智能在医疗保健领域做出决定时,应该告诉患者。社交媒体网站还要求创作者披露人工智能何时被用于制作或修改视频。
IEEE高级会员Cristiane Agra Pimentel表示:“人工智能的道德使用取决于正确处理信息,包括来源引用和遵守现有指南。一些出版物现在允许人工智能的使用,前提是作者列举了引用的人工智能及其使用日期。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。