路怒症是一个全球性的现象。在中国,大约60%的司机有过路怒经历。在美国,近80%的司机称自己在开车时有过明显的愤怒或攻击性情绪。当这些情绪导致攻击性驾驶时,路怒症在相当大比例的交通事故中负有责任。
近期的研究探索了利用人类声音来判断司机是否愤怒到不宜开车的方法。IEEE旗下的IEEE Access杂志最近发表的一篇论文探讨了一种方法,该方法在实验室中利用声音达到了约95%的准确率,这引发了人们对这项技术是否接近实际应用的疑问。
不止追踪路况的传感器
汽车越来越多地配备了一系列传感器,用于监测车内、引擎盖下以及周围环境的状况(https://transmitter.ieee.org/what-does-your-car-know-about-you/)。例如,一些汽车的方向盘中嵌入了心率监测器,用于检测疲劳驾驶以及可能出现的心脏紧急状况。有些汽车配备了摄像头,用于查看司机是否集中注意力。
IEEE会员Ning Hu表示,虽然这些传感器能够评估司机的身体状况,但事实证明判断他们的情绪状态更加棘手,因为混合情绪是很常见的。
“如果分类是二元的,即愤怒与不愤怒,那么即使系统是在猜测,准确率也有50%。”
人工智能在解读情绪中的作用
利用计算机识别和分类人类情绪被称为情感计算。该领域的研究人员利用基于数据集(包括图像、社交媒体文本和语音)训练的各种形式的人工智能。金融服务和医疗保健等行业一直依赖情感计算。例如,银行可能会在呼叫中心使用这项技术来判断客户是否生气。营销公司在焦点小组中使用面部分析来对广告反应进行分类,并了解观众对电影可能的感受。
情感计算的各种方法都存在缺陷,并且在现实环境中遇到了困难。许多识别路怒行为的研究都集中在诸如攻击性变道和车速等方面。一些研究人员使用车内摄像头来分析面部表情。研究人员指出,愤怒的人可以掩饰自己的情绪,使其不在脸上表现出来。
推进这项技术可能需要一个多模态系统,即一个整合面部表情、驾驶行为和声音的系统。
当汽车检测到愤怒情绪时会发生什么
设想这样一个未来:人工智能能够判定司机是否过于愤怒或者因其他原因而不适合驾驶。汽车如何处理这些信息仍然是个问题。有几种可能性。首先,人工智能可能会使汽车无法启动或者启动自动驾驶功能。
“开发用于自动驾驶的人工智能算法的关键目标之一是安全,”Hu说道,“人工智能的稳健性和可解释性仍然存在疑问。人工智能可能会利用收集到的所有可能的数据,判定司机‘过于’愤怒,但将使汽车无法启动这一操作交给人工智能意味着放弃控制权,这可能会对车内的司机造成伤害。问题仍然存在:对人工智能的信任程度如何,当人工智能出错时会有哪些法律后果?”
另一种可能性是这些信息可能会被报告给保险公司。
Hu说:“客户的接受程度取决于从这类保险产品中提供个人数据所获得的利益。不同司法管辖区的保险产品也应考虑到监管和伦理考量。”
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。