近日,IEEE电气电子工程师学会发布了“IEEE全球研究报告:2024年及未来技术影响”。报告显示,人工智能(AI)将成为2024年最重要的技术,在全球经济中将以多种方式被使用并发挥作用。
根据研究,2024年AI技术和算法将以多种方式被广泛应用,比如用于优化数据、执行复杂任务以及像人类一样做出准确决策。

IEEE数字化转型联合会战略与架构主席、IEEE电子游戏与竞技标准委员会委员汪齐齐在接受记者采访时表示,AI技术是我们数字化展现的重要支柱之一。AI技术特别是AIGC和大模型可以帮助企业在数字化转型中做出更优质的策略模拟,从而更有效地制定决策。此外,AI技术还可以提升研发效率,帮助企业更快地创新和开发新产品。
其次,AI技术还可以对现有的非数字化和数字化技术进行升级迭代,从而带来更好的结果。对于正在进行数字化进程的企业,AI技术可以显著提高效率并加速这个进程。其中一个例子是AI可以更有效地识别和处理传统非数字化的数据以及已数字化的数据的整合和利用。
此外,AI技术可以在企业的整体流程中进一步替换那些可能产生人为错误的节点。通过AI技术,我们可以减少人为错误,提高效率和准确性。这对于企业来说是非常重要的。
以电信行业为例,AI技术可以帮助运营商在原型分析和基础过程中优化和调整功能。结合AI技术,运营商可以在原型状态下进行一些无法通过其他方式实现的优化,使产品更加优质。
电信行业在数字化转型中还有一个重要的环节就是客服。随着AI带动的数字化转型,电信行业的客服质量有了明显的提升。现在,AI模型可以更好地回答一些制式问题,提高了客服的效率和客户满意度。
虽然AI带了诸多好处,但是数据安全和隐私保护也被提上日程。“随着数字化转型的深入发展,数据隐私保护已经逐渐成为全球关注的焦点。尽管在某些时候,国内对隐私的重要性认识不足,甚至为了更好的商业模式而牺牲隐私,但现在,我们正越来越重视数据隐私的保护,尤其是跨境数据隐私保护。”汪齐齐说。
总的来说,AI技术对于企业的数字化转型和升级迭代非常重要,可以帮助企业更好地应对当前的挑战并加速数字化进程。
关于数据这一全新生产要素
无论是在AI应用还是其他数据驱动的领域,数据都扮演着越来越重要的角色。因此,数据的存储和处理方式成为了业界关注的焦点。
随着数据的增多和变化,如何更有效地储存和使用数据也是一个重要的挑战。此外,随着数据尺寸的变化,如何提高数据的传输效率也是一个需要解决的问题。
汪齐齐表示,数据的存储和处理可以根据不同的企业和应用类型有所差异。但可以肯定的是,随着数据中心对于新型数据处理的需求增加,我们预期将看到重大的技术进步。
以AI或大模型数据处理为例,针对这类数据优化的硬件需求应运而生。我们预期,针对不同类型数据的新数据中心将随之出现。这些数据中心不仅会涉及到硬件的进步,还可能带来网络传输和核心算法优化的突破。
当然,从安全和隐私的角度来看,数据的安全性和保密性是必须考虑的因素。这方面的进步一直在发生,但具体实现方式需要根据具体情况来决定。例如,我们不能简单地认为分布式部署就一定优于中心化部署,它们各有优势,关键在于找到最符合应用场景的处理方式。
当前,数据量激增,但并不是数据越多越好。在很多情况下,有些数据可能会起到干扰作用,甚至是不合格的数据。如何将这些数据筛选出来,以便最终获得高质量的数据,这是一个巨大的挑战。
汪齐齐表示,数据的有效性和时效性是一个重要问题。现在,数据生成速度很快,但其中可能包含大量与最终需求无关或无效的数据。因此,数据的时效性和精确性是数据驱动和数据本身面临的巨大挑战。
此外,数据的可交互性也是数字化转型过程中的一个重要问题。在相同的场景中,对于同一件事情,不同的系统、不同的业务模式或不同的软硬件产生的数据结构和类型可能不完全匹配。因此,如何提高数据的整合效率,使不同系统、不同业务模式或软硬件产生的数据能够相互关联和交互,是一个重要的挑战。
最后,数据的价值和定价也是需要考虑的问题。随着数据的使用方式不断发展,数据被认为是一种新型的资产。因此,需要考虑类似于传统资产交易中的一些要素,例如资产的安全性、合理的定价和流动性,以及如何保护数据不被恶意高估或低估价值。同时,也要考虑如何保护原始数据和现有数据拥有者的类似版权性质的权利。
写在最后
数字化转型离不开AI和数据的赋能,展望未来,如何有效发挥AI的价值以及从数据中实现价值驱动成为企业的最大诉求。而这离不开技术进步,让我们拥抱技术变革,成就业务创新发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。