AMD、三星、VMware和RISC-V Keystone社区成员合作,通过支持开源认证器框架简化机密计算应用的开发。
中国北京,2023年6月30日——近日,VMware(NYSE:VMW)在2023年机密计算峰会上宣布,将与AMD、三星和RISC-V Keystone社区成员一同简化机密计算应用的开发和运营。这些行业和社区领导者将通过合作和推动开源机密计算认证器框架项目,一同简化向实用机密计算的过渡。
支持机密计算认证器框架生态系统
为了推动机密计算的普及,VMware研究、开发并开源了以开发者为中心的机密计算认证器框架项目。通过将用于创建和操作机密计算应用的易于使用、独立于平台的API标准化,AMD、三星和VMware旨在解决阻碍采用机密计算的一个重大障碍。
机密计算基于一个被称为“可信执行环境”的新兴处理器概念。在该环境中,即使工作负载被部署在可能由他人操作的云或基础设施(如边缘)中,也能保持程序和数据的保密性和完整性。随着多云部署的发展,基于机密计算的统一安全保护预计将变得越发重要。另外,在机器学习等新兴工作负载的背景下,机密计算可以在保护与基础模型和代码、专有模型衍生品及私人训练数据相关的知识产权和专有数据方面发挥特殊作用。尽管机密计算是安全和隐私领域的一项巨大进步,但它与许多硬件功能一样,只有当新范式中的应用开发变得更容易时,才会被广泛采用。
认证器框架极大地简化了更加安全的云工作负载、保密服务和隐私保护应用的开发,包括基于多个不同来源敏感数据和模型的新型机器学习和“数据经济”工作负载。该框架为指定和执行信任策略提供了独立于平台的支持,可以更好地保护本地和第三方基础设施的工作负载,比如电信边缘、多云环境和主权云等。这些公司和社区成员旨在通过共同推进和促进开源认证器框架,有效地将一套开发者API标准化,从而使整个行业随着机密计算在x86、Arm和RISC-V生态中的应用而从中受益。
VMware首席技术官Kit Colbert表示:“无论是在多云、边缘环境或其他任何位置,机密计算可以保证运行工作负载的安全。难点在于如何帮助客户轻松采用和实施该标准。日益壮大的认证器框架贡献者生态系统将通过共同的努力为ISV、企业客户和主权云提供商带来这些益处,帮助他们更加轻松、有效地使用这一新兴技术。”
VMware参加2023年机密计算峰会
近日,VMware在机密计算峰会上重点介绍了该认证器的各项功能,展现了公司对未来多云安全的承诺。VMware与该认证器框架项目的其他贡献者将在引人瞩目的机器学习用例中演示客户/云机密计算。尤其是,这些演示将展示跨异构TEE的“通用”客户端-云信任管理,包括AMD安全加密虚拟化-安全嵌套分页(SEV-SNP)、SGX、CCA和RISC-V等。
相关引言
AMD数据中心生态系统和解决方案副总裁Raghu Nambiar表示:“AMD是AMD Infinity Guard等先进硬件安全功能的先驱,我们在自己的EPYC数据中心处理器中内置了安全加密虚拟化(SEV)等功能。与VMware等行业伙伴合作对于加快采用机密计算和确保云中工作负载的安全至关重要。无论企业规模或技术复杂程度如何,也无论工作负载部署在哪里,该认证器框架都将帮助更多客户受益于机密计算。”
三星电子副总裁兼安全与隐私团队负责人Yong Ho Hwang表示:“三星致力于通过其Arm CCA架构的Islet接口将机密计算扩展到端点。我们十分高兴成为该认证器框架的支持者,与其他合作伙伴一起通过对开发者友好的机密计算信任管理API推动机密计算的采用。”
加州大学伯克利分校电气工程和计算机科学(Electrical Engineering and Computer Sciences)系计算机科学部教授Krste Asanovic表示:“Keystone使机密计算硬件社区能够受益于开源的各种好处。我们十分高兴能够在发展我们能力的同时,使用该认证器框架帮助机密计算开发者保持对平台的选择权。”
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。