VMware将与新的合作伙伴一起致力于推动一项名为“Certifier Framework for Confidential Computing”的开源项目,该项目旨在克服采用机密计算的一些最大障碍。
VMware目前正走在机密计算开发的最前沿。机密计算是指对正在处理中的数据进行加密的技术。尽管对于服务器中闲置的数据或通过网络传输的数据已经存在强加密,但在使用这些信息时没有任何东西可以保护这些数据。当应用需要访问数据时,信息必须解密为原始的、可读的形式,这意味着在处理信息时特别容易受到黑客的攻击。
机密计算旨在改变这一现状。它基于一种被称为“可信执行环境”的新兴处理器概念,当数据部署在可能由第三方运营的云基础设施或者是边缘服务器的时候,它能够保持数据的机密性和完整性。
通过Certifier Framework for Confidential Computing,VMware和其他芯片制造商的目标是实现易于使用的、独立于平台的应用编程接口标准化,以构建和运行机密计算应用。这个框架让开发人员可以更轻松地创建隐私保护应用,包括基于多个来源聚合的敏感信息的机器学习和数据经济工作负载。VMware表示,该框架为创建和执行保护第三方服务器基础设施(包括公有云、主权云和边缘环境)工作负载所需的信任策略提供了独立于平台的支持。
这些合作伙伴预计,他们在该框架方面的工作最终将通过在x86、Arm和RISC-V处理器架构上实现机密计算而使整个计算行业受益。
VMware表示,有充分的理由希望加速机密计算的发展,因为数据加密对于多云部署至关重要。VMware 表示,出于安全考虑,许多企业工作负载无法运行在云中。此外,机密计算可以在保护人工智能和机器学习新应用中使用知识产权和专有数据方面发挥关键作用。 VMware公司首席技术官Kit Colbert表示,机密计算显然是市场需要的,但除非开发人员能够更轻松地构建此类应用,否则机密计算不会被广泛采用。
他解释说:“机密计算有潜力保护工作负载,无论是在哪里运行,包括在多云和边缘环境中,但挑战在于如何帮助客户轻松地采用和实施该标准。Certifier Framework框架不断发展的贡献者生态系统所做出的集体努力,将有助于为ISV、企业客户和主权云提供商带来这些好处,让他们能够更轻松、更有效地使用这一新兴技术。”
Constellation Research分析师Holger Mueller认为,看到VMWare率先推广机密计算是令人鼓舞的,因为VMware是虚拟机领域的行业领导者,为绝大多数应用工作负载提供了动力。Mueller表示:“VMware正在招募AMD、三星和RISC-V厂商等合作伙伴,以确保硬件级别的虚拟化工作负载是安全的。这对企业来说非常重要。随着越来越多的工作负载转移到云端,他们需要一种更好的方法来保护这些工作负载,而机密计算可以做到这一点,可以在恰当的设备上安全可靠地运行恰当的应用。”
VMware于近日在美国旧金山举行的2023年机密计算峰会上公布了这一新的合作伙伴关系,并在大会上展示了许多涉及机密机器学习应用的技术演示。
AMD公司数据中心生态系统和解决方案公司副总裁Raghu Nambiar表示:“与VMware等行业合作伙伴合作,这对于加速采用机密计算和保护云中工作负载来说是至关重要的。无论组织的规模或技术复杂程度如何,或者工作负载部署在何处,Certifier Framework都将帮助更多客户从机密计算中受益。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。