2019年5月27日,在2019数博会举办的“人工智能:AI赋能 引领未来”高端对话,华为公司副总裁、华为云业务总裁郑叶来发表主题演讲,他首先回顾了在2018数博会首次提出“普惠AI”以后,一年来华为云AI的实践与进展,指出当前AI在各行各业真正落地面临三大挑战,要真正实现普惠AI,目前需要认真思考三大问题。
他重点指出,数权要像物权一样被尊重。作为AI基础之一的数据,必须要被合法合规的尊重,这其中最重要的是,服务方要有明确的边界意识,对用户的数据保持清晰的边界与足够的敬畏。华为云尊重客户数据主权,坚持使用华为云的AI能力产生的知识产权归使用者的原则,逐步推进AI落地,让智能无所不及。

华为公司副总裁、华为云业务总裁郑叶来在数博会2019发表主题演讲
以下是演讲全文要点:
经济学家们认为人类发展史走到今天总共有26种通用目的技术(General Purpose technology)。人工智能就是其中一种,这已经越来越成为共识。所谓通用目的技术,简单的理解就是要有多种用途、应用到经济的几乎所有地方、并且有很大的溢出效应。
人工智能作为通用目的技术,将影响每个人、每个家庭、每个组织,激发产业新潜能。人工智能跟信息化最大的不同在于,AI不仅仅是简单提升效率,AI会改变生产结构,将成为一种基本生产力。
一年前,我在数博会首次提出普惠AI,让AI高而不贵,让各行各业用得起、用得好、用得放心。对此,华为公司内部已达成共识。
从当前的实践来看,AI在各行各业真正生产落地有诸多困难,也导致AI热度出现了一些回落。第三方机构统计发现人工智能的投资在下降,但这恰恰是AI产业加速落地的开始。当前问题,归结起来有三类:机器的瓶颈、人才的稀缺、AI知识与行业知识间的Gap。
机器的瓶颈:表现为算力昂贵且供应周期长,这需要从芯片、基础硬件、全堆栈AI等方面战略投入,确保算力充裕且经济。
人才的稀缺:表现为研究AI数据、算法的人才很稀缺。
AI知识与行业知识间的Gap:表现为掌握行业Know-how专家不懂AI,AI专家不掌握行业Know-how,导致AI在行业落地像隔了座山。
这一年来,我们聚焦于踏踏实实做好自己的事。我们发布了两款昇腾系列芯片,为人工智能开发提供“用得起”的充裕经济算力。针对目前AI开发的现状——人工智能最费的是人工,数据标注与准备需要耗费大量人工,要实现“普惠AI”,核心是降低人工智能开发的门槛,因此华为云推出了一站式AI开发平台ModelArts,为AI开发提供“用得好”的开发平台。
经过一年的努力,华为云AI已在城市、制造、物流、互联网等10大行业的300+个项目进行探索和落地,将华为云的AI能力与行业实践相结合,促进AI落地应用。
要实现普惠AI,不仅要让各行各业用得起、用得好,还要让大家“用得放心”。因此,我认为需要各方认真思考三大问题:
第一, 数权要像物权一样被尊重。人类管理物理世界的物权,有几千年的历史和经验;对数字世界“数权”理解与管理,才刚刚开始。作为AI基础之一的数据,必须要被合法合规的尊重,我认为,这其中最重要的是,服务方要有明确的边界意识,对用户的数据保持清晰的边界与足够的敬畏。
第二, 数权和AI产权,需要被研究和讨论。对于人与人之间、机器与机器之间、人与机器之间产生的大量数据,我们不能回避数据的主权到底是谁的?华为云尊重客户数据主权,使用华为云的AI能力产生的知识产权归使用者,让AI开发者“用得放心”。
第三, AI的未来发展,是为更好的“协助”人,而不是“代替”人。华为云全力发展AI开发者生态,大力发展以人为中心的AI,让AI更好为人类的需求服务。
面向未来,华为云致力于做智能世界的黑土地,将AI服务触及每个开发者、每个组织、每个行业,开放合作,持续推进智能产业健康发展,实现普惠AI。
好文章,需要你的鼓励
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。