当地时间10月26日,联合国秘书长安东尼奥·古特雷斯在纽约总部宣布,正式成立联合国高级别人工智能咨询机构(High Level Advisory Body on AI),对于这项技术带来的风险和机遇进行探讨,并为国际社会加强治理提供支持。
联合国高级别人工智能咨询机构成员分布在33个不同国家,包含20名女性与19名男性。其中,我国的代表分别是中国科学院自动化研究所研究员曾毅与中国政法大学数据法治研究院教授张凌寒。

曾毅是中国科学院自动化研究所类脑认知智能实验室负责人和人工智能伦理与治理研究中心主任、研究员。同时也是远期人工智能中心(Center for Long-term AI)的创始主任,并领导面向可持续发展的人工智能协作网络(AI for SDGs Cooperation Network)以及国防人工智能与军备控制网络(Defense AI and Arms Control Network)。他还是联合国教科文组织(UNESCO)人工智能伦理特设专家组和世界卫生组织(WHO)健康领域人工智能伦理/治理专家组的专家,也担任中国人工智能学会心智计算专业委员会主任,也是中国国家新一代人工智能治理专业委员会和国家科技伦理委员会人工智能分委会的委员。
他的研究领域围绕类脑智能研究展开,主要包括类脑认知计算模型与人工智能伦理与治理。类脑认知计算模型方面,具体包括类脑脉冲神经网络、类脑人工神经网络、类脑自主学习理论与算法,研究成果应用于类脑信息处理、类脑智能机器人的研究中;人工智能伦理与治理方面,包括研究不同人工智能模型存在的风险、安全、伦理问题,并通过算法落地的形式研究低风险、高度安全、具有道德与伦理的有益人工智能模型。

张凌寒博士是中国政法大学数据法治研究院教授,博士生导师,康奈尔大学访问学者。她在网络空间法和算法治理领域发表了大量研究成果,曾主持国家社会科学基金项目,研究算法监管和人工智能治理。她是《在线虚拟财产侵权责任研究》和《统治力量:人工智能时代的算法监管》的作者,还翻译过《美国和亚洲女性主义法律:跨太平洋对话》等书籍,以及多本法律教材的合编者,同时也是中国法学会网络与信息法研究会理事会成员、家庭法研究会理事会成员。她还担任中国工业和信息化部信息与通信科学技术委员会和中国信息安全法律委员会的专家委员。她多年来一直参与研究和立法工作。
她的主要研究方向为民商法、网络与数据法。在《法商研究》《法律科学》《法制与社会发展》等核心期刊发表论文三十余篇,其中多篇被《人大报刊复印资料》《中国社会科学文摘》《高等学校文科学术文摘》全文转载,并被北大法律信息网统计为2018-2021年高被引作者。她还主持国家社科基金、教育部、司法部、中国法学会、博士后基金等人文社科项目,参编参译多部专著、教材。
成立联合国高级别人工智能咨询机构的计划,最初在今年6月由古特雷斯宣布,当时希望能建立一个类似国际原子能机构(IAEA)的国际人工智能监督机构,定期审查人工智能治理安排,并就如何使其与人权、法治和公共利益相一致提出建议。古特雷斯当时表示,这一模式可能会“非常有趣”,但他也指出:“只有会员国才能创建它,而不是联合国秘书处。”
联合国高级别人工智能咨询机构汇集了39名来自政府、私营部门、研究界、公民社会和学术界的专家,包含20名女性和19名男性,在政府、企业、技术界、民间社会和学术界拥有丰富的经验,具有全球性、性别均衡和跨学科等特点。
联合国高级别人工智能咨询机构的努力将以《联合国宪章》所包含的普遍价值观为基础,并具有包容性。截至今年年底,该机构将在三个领域提出初步建议:一是人工智能的国际治理;二是对风险和挑战的共同理解;三是利用人工智能加速实现可持续发展目标的关键机遇和推动因素。
古特雷斯强调,人工智能能够在多个领域为人类带来重大进展,包括危机预测和应对、公共卫生计划和教育服务等。人工智能的全面扩大和加强将有助于政府、民间社会和联合国的工作。尤其对于发展中经济体而言,人工智能提供了超越过时技术的机会,并直接服务于最需要帮助的人们。为了充分发挥人工智能对全人类的利益,并降低风险,他呼吁进行全球性、多学科、多利益相关方的对话,推动人工智能的发展和治理。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。