AMD、三星、VMware和RISC-V Keystone社区成员合作,通过支持开源认证器框架简化机密计算应用的开发。
中国北京,2023年6月30日——近日,VMware(NYSE:VMW)在2023年机密计算峰会上宣布,将与AMD、三星和RISC-V Keystone社区成员一同简化机密计算应用的开发和运营。这些行业和社区领导者将通过合作和推动开源机密计算认证器框架项目,一同简化向实用机密计算的过渡。
支持机密计算认证器框架生态系统
为了推动机密计算的普及,VMware研究、开发并开源了以开发者为中心的机密计算认证器框架项目。通过将用于创建和操作机密计算应用的易于使用、独立于平台的API标准化,AMD、三星和VMware旨在解决阻碍采用机密计算的一个重大障碍。
机密计算基于一个被称为“可信执行环境”的新兴处理器概念。在该环境中,即使工作负载被部署在可能由他人操作的云或基础设施(如边缘)中,也能保持程序和数据的保密性和完整性。随着多云部署的发展,基于机密计算的统一安全保护预计将变得越发重要。另外,在机器学习等新兴工作负载的背景下,机密计算可以在保护与基础模型和代码、专有模型衍生品及私人训练数据相关的知识产权和专有数据方面发挥特殊作用。尽管机密计算是安全和隐私领域的一项巨大进步,但它与许多硬件功能一样,只有当新范式中的应用开发变得更容易时,才会被广泛采用。
认证器框架极大地简化了更加安全的云工作负载、保密服务和隐私保护应用的开发,包括基于多个不同来源敏感数据和模型的新型机器学习和“数据经济”工作负载。该框架为指定和执行信任策略提供了独立于平台的支持,可以更好地保护本地和第三方基础设施的工作负载,比如电信边缘、多云环境和主权云等。这些公司和社区成员旨在通过共同推进和促进开源认证器框架,有效地将一套开发者API标准化,从而使整个行业随着机密计算在x86、Arm和RISC-V生态中的应用而从中受益。
VMware首席技术官Kit Colbert表示:“无论是在多云、边缘环境或其他任何位置,机密计算可以保证运行工作负载的安全。难点在于如何帮助客户轻松采用和实施该标准。日益壮大的认证器框架贡献者生态系统将通过共同的努力为ISV、企业客户和主权云提供商带来这些益处,帮助他们更加轻松、有效地使用这一新兴技术。”
VMware参加2023年机密计算峰会
近日,VMware在机密计算峰会上重点介绍了该认证器的各项功能,展现了公司对未来多云安全的承诺。VMware与该认证器框架项目的其他贡献者将在引人瞩目的机器学习用例中演示客户/云机密计算。尤其是,这些演示将展示跨异构TEE的“通用”客户端-云信任管理,包括AMD安全加密虚拟化-安全嵌套分页(SEV-SNP)、SGX、CCA和RISC-V等。
相关引言
AMD数据中心生态系统和解决方案副总裁Raghu Nambiar表示:“AMD是AMD Infinity Guard等先进硬件安全功能的先驱,我们在自己的EPYC数据中心处理器中内置了安全加密虚拟化(SEV)等功能。与VMware等行业伙伴合作对于加快采用机密计算和确保云中工作负载的安全至关重要。无论企业规模或技术复杂程度如何,也无论工作负载部署在哪里,该认证器框架都将帮助更多客户受益于机密计算。”
三星电子副总裁兼安全与隐私团队负责人Yong Ho Hwang表示:“三星致力于通过其Arm CCA架构的Islet接口将机密计算扩展到端点。我们十分高兴成为该认证器框架的支持者,与其他合作伙伴一起通过对开发者友好的机密计算信任管理API推动机密计算的采用。”
加州大学伯克利分校电气工程和计算机科学(Electrical Engineering and Computer Sciences)系计算机科学部教授Krste Asanovic表示:“Keystone使机密计算硬件社区能够受益于开源的各种好处。我们十分高兴能够在发展我们能力的同时,使用该认证器框架帮助机密计算开发者保持对平台的选择权。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。