工作正在迅速演变,生成式人工智能的兴起加速了数据分析、软件代码生成和营销文案创作的进程。然而,这种发展也引发了人们对工作岗位被取代、伦理和准确性的担忧。
在2024年的消费电子展(CES)上,来自工业界和学术界的IEEE专家参加了一场讨论,探讨新技术如何改变职业世界,以及大学如何培养学生在其中蓬勃发展。
点击链接:https://live.ces.tech/detail/6344813291112/how-will-ai-impact-the-jobs-of-the-future-presented-by-ieee,查看2024年IEEE主席Tom Coughlin主持的小组讨论的完整版本。
以下是热烈讨论的要点。
HUMAN IN THE LOOP
人工智能领域的一大争论是,自主系统在没有人类监督的情况下运行是否合适,尤其是当这些系统可能产生不可预见和意外的后果时。
自动驾驶系统越来越多地应用,或可能会出现危及人类生命的情况如驾驶,以及工作可能受到影响的情况,例如雇佣新员工。
IEEE会员Gloria Washington说:“真的,我不认为人工智能应该在没有人类参与的情况下实现完全自主化。”她的研究重点是以人为中心的情感计算。
AI HALLUCINATIONS MAY LIMIT USEFULNESS
IEEE高级会员Kayne McGladrey指出,在商业中使用生成人工智能模型取决于它们提供准确信息的能力。他举了人工智能模型从金融部门监管文件中提取信息的能力研究为例,这些文件经常被用来做出投资决策。
“现在,最好的人工智能模型80%的问题都是对的,”McGladrey说,“他们在其他20%的时间里都会产生幻觉。如果你认为你是基于人工智能做出投资决策的,那么这不是一个好兆头。五分之四的情况下,人工智能会告诉你这是一个很好的策略。”
EMERGING ETHICAL CODES
IEEE当选主席Kathleen Kramer指出,IEEE于1912年创建了世界上第一个工程道德规范,一个多世纪以来IEEE不断更新工程、计算机科学和人工智能伦理方面的专业行为准则。
Kramer说:“传统的工程伦理是关于处于危险境地的生命和对公众的关心。计算机科学伦理不是从同一个领域发展而来的。更多的情况下,人们关心财产、隐私和安全。在人工智能领域,你需要把它们结合在一起。”
AI AND PROFESSIONAL ETHICS
随着行业越来越多地转向人工智能来提高生产力和决策,人们对道德影响的担忧也随之而来。
科幻作家、IEEE会员Jim Doty指出,在将人工智能融入工作中时,具有强大道德规范的行业可能会面临限制。
Doty说:“律师有道德义务为他们的客户服务。人工智能公司并没有这样的义务。”
Doty说,在某些领域,比如医学和医疗保健,人工智能作为决策的核心部分可能受到限制,必须在外围工作。
WHO GETS TO COMMENT?
Washington表示,最终,人工智能的兴起将对社会的广大阶层产生影响,因此进行与这些影响范围相匹配的讨论至关重要。
Washington说:“人们认为,你必须是人工智能专家才能发表评论。其实不然,因为我们都是利益相关者。”
了解更多:有兴趣深入了解人工智能设计的含义吗?查看IEEE标准协会相关内容:Ethically Aligned Design,https://standards.ieee.org/industry-connections/ec/ead-v1/。这篇关于利用人工智能改善人类福祉的深入研究有几种语言版本。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。