迄今为止,全球已有100多个国家颁布了数据保护和数据主权法律,数据主权成为了企业上云时考虑的主要问题。谈及数据处理,必然会提及生成式AI。企业采用生成式AI的目标都是为了提高生产力。根据埃森哲报告显示,各行各业40%的工作时间都会受到大型语言模型(LLM)的影响。在员工的总体工作时间中,语言任务占62%,而65%的语言任务时间可以通过增强措施和自动化,应用在更具生产力的活动中1。
当主权云碰到生成式AI,两者之间是竞争,协作,还是“亦敌亦友”?由于生成式AI需要庞大的算力和飞速处理大型数据集的能力,因此公有云成为了许多生成式AI应用的理想平台。但公有云的访问路径、速度和规模只是一方面,数据安全、隐私和主权要求同样至关重要,并且必须纳入企业考量。也就是说,最适合生成式AI的云并不是公有云,而是私有云。
主权云与生成式AI之间的关系取决于几个重要因素,需要在数据主权、隐私、合规和生成式AI带来的收益之间找到平衡点。这不仅需要深思熟虑,还要在开箱即用的公有云生成式AI以及主权数据使用限制之间做出权衡。
数据驻留与合规
生成式AI应用可能需要遵守一整套法规,比如《通用数据保护条例》(GDPR)中的数据保护规定,这部条例为企业负责任地采集、处理和存储个人数据建立了一个完整全面的框架2。但这只是冰山一角,以权利为基准的个人数据处理方法在各地区、国家乃至各行业不断扩展。
我国于2021年开始实施《个人信息保护法》,连同早年出台的《网络安全法》和《数据安全法》,对个人信息数据的合理使用做出了严格的规定。针对近年来利用“AI换脸” 技术进行视频合成、进而实施诈骗的现象,2023年7月国家网信办等七部门联合对外发布《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能健康发展和规范应用,保护公民、法人和其他组织的合法权益。
VMware全球副总裁、大中华区总裁陈学智表示: “对企业而言,如何将生成式AI用于提升生产力需要解决三大问题。一是探索具体的业务应用和使用场景,二是解决大型语言模型训练所需的算力不足问题,最后就是在数据训练和推理过程中,如何确保自身数据的安全性。企业需要构建能够实现数据透明和可见性、并严格控制数据驻留的云基础架构。由VMware Cloud Foundation (VCF) 建构的自主可控私有云及主权云不仅可以满足企业的上云需求,同时还能实现数据保护、合规和控制,帮助企业在当今的数字世界中蓬勃发展。”
数据主权和隐私
生成式AI应用可能需要访问个人或专有数据进行训练,因此带来数据主权和隐私相关风险。尽管主权云提供了强有力的数据控制手段以降低非法访问的风险,这些手段会限制生成式AI应用所使用数据的跨境转移和变现,但这也可能会减少或彻底丧失上述AI应用带来的好处。
尽管当生成式AI连接到主权云或位于主权云内时,可能会产生隐私相关的冲突,但主权云供应商仍可以构建(或授权使用)AI相关的服务和工具,在其基础架构内促进生成式AI应用的安全合规使用。
稳健的主权云战略可以通过保证数据驻留、数据安全和确保企业符合当地政府的法规,帮助企业以负责任的方式有效使用生成式AI技术。此类战略需要考虑AI的兼容性,AI运行成本、开发AI解决方案所需的资源和技能、主要的顾虑等因素,以及用于驱动AI训练的数据和由此产生的数据。简而言之,要使AI合规,就需要Private AI架构将AI的商业效益与企业的实际隐私和合规需求相结合。多年来,VMware云服务商就已经能够将用于多租户或独立Cloud Foundation主权云的Cloud Director与所支持的NVIDIA AI Enterprise人工智能软硬件解决方案系列相结合,提供NVIDIA vGPU即服务。因此,提供AI服务的能力已经存在,但需要投资构建自己的解决方案。
为了推动新一轮AI应用的发展浪潮,VMware在今年的VMware Explore美国大会上 宣布:
主权云的核心是数据、控制以及创新。在日新月异的数字环境中,保持创新和竞争优势对企业至关重要。VMware主权云是实现这一目标的理想选择,其灵活性、可扩展性和敏捷性使企业能够迅速适应不断变化的市场环境,为企业注入创新信心。VMware强大的合作伙伴生态和领先的技术为企业提供推动创新的工具和资源。借助VMware主权云,企业既可以充分利用云的强大功能,同时又能保持对数据和基础架构的控制,从而打造踊跃创新、积极竞争、充满成功机会的环境。
参考资料
1. 埃森哲,惠及每个人的生成式AI新时代,2023年3月
2. 欧洲委员会,欧盟数据保护,2023年7月
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。