公布“计算生命周期保障计划”进展,并预览了新的安全功能
旧金山,2020年2月26日—在2020年RSA大会期间举行的“英特尔安全日”活动上,英特尔强调了公司对于安全的一贯承诺,并公布了数项进展,包括在未来产品上安全功能的细节。在英特尔,安全是贯穿于架构、设计和执行等方方面面的基础且根本的要素。在这个以数据为中心的世界中,英特尔正携手客户和合作伙伴,共同打造更加值得信赖的计算基石。
“硬件是任何安全解决方案的基石。正如物理结构需要建立在地基上,才能承受自然的力量,植根于硬件的安全解决方案最有望提供安全保障,来应对当前和未来的威胁。”英特尔客户安全策略与计划副总裁兼总经理 Tom Garrison称,“英特尔硬件及其带来的安全保障和技术,有助于筑牢防护层,以防攻击。”
英特尔客户在打造解决方案和服务时,要依靠芯片技术的广度和深度、垂直集成以及从边缘到云的实质性覆盖。英特尔的使命就是为所有架构提供通用的安全能力,帮助解决用户体验中日益复杂的问题。
无论是处于静态还是动态,数据都必须得到保护。要想从数据中提取价值,同时提供不折不扣的性能,数据保护是关键。未来10年内的架构进展将比过去50年里还要多。
英特尔院士兼英特尔安全架构和技术总监John Sell说:“英特尔在业界具有独一无二的优势,可以创造和提供真正创新的安全技术,覆盖架构、内存和互连的各个方面,”。
随着数据密集型计算需求的增长,我们需要兼顾部署的可扩展性和数据保护级别。为了应对客户挑战,未来数据中心平台上的全新机密计算能力有望同时提供规模和选择:
自12月份推出以来,英特尔的计算生命周期保障计划(Compute Lifecycle Assurance Initiative),已日益受到客户和生态系统合作伙伴的关注,包括最先推出的基础产品:英特尔透明供应链(Intel TSC)。
设备来源透明有助于为建立信任供应链打下基础。英特尔透明供应链允许平台制造商使用可信计算组织(TCG)的可信平台模块2.0(TPM)标准(又称ISO 11889)绑定平台信息和度量。这使得客户可用详细至组件级的报告,获取平台的可追溯性和可追责性。您可以参考英特尔Tom Dodson的一篇博客了解更多信息。
目前,英特尔透明供应链面向英特尔博锐平台个人电脑、英特尔NUC、英特尔至强可扩展处理器系统、英特尔固态硬盘和特定英特尔酷睿商用个人电脑的客户提供。
为了体现英特尔对供应链透明度、评估和安全保障的承诺,英特尔还通过英特尔透明供应链工具为生态系统合作伙伴提供助力。如今,Hyve Solutions、浪潮、联想(客户端和服务器)、神达、广达、Supermicro和ZT Systems都启用了英特尔透明供应链工具。此外,英特尔还与企业IT和云服务提供商一道,积极部署英特尔透明供应链。
可信计算组织(TCG)市场营销工作组主席Thorsten Stremlau说:“这种信任链过程提供了基于可信平台模块(TPM)的基本可追溯性。将组件级的可追溯性引入平台和系统,既增加了信任,又降低了电子部件伪造风险,同时也促进了采购标准的制定。这是行业发展的正确的方向。”
技术进步通常需要整个行业携手并进。英特尔以深厚的底蕴,持续协助客户和行业伙伴开发新的创新方法以提高硬件安全性。英特尔积极与行业共享这方面的知识与经验,积极参与领先的行业计划和标准组织并为其贡献力量,包括Linux基金会旗下的机密计算联盟、FIDO联盟旗下的IoT技术工作组,以及MITRE主导并最新扩展的通用缺陷列表(Common Weakness Enumeration)等。这些努力凸显了英特尔的独特能力,为行业建立更加可信的计算基石。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。