公布“计算生命周期保障计划”进展,并预览了新的安全功能
旧金山,2020年2月26日—在2020年RSA大会期间举行的“英特尔安全日”活动上,英特尔强调了公司对于安全的一贯承诺,并公布了数项进展,包括在未来产品上安全功能的细节。在英特尔,安全是贯穿于架构、设计和执行等方方面面的基础且根本的要素。在这个以数据为中心的世界中,英特尔正携手客户和合作伙伴,共同打造更加值得信赖的计算基石。
“硬件是任何安全解决方案的基石。正如物理结构需要建立在地基上,才能承受自然的力量,植根于硬件的安全解决方案最有望提供安全保障,来应对当前和未来的威胁。”英特尔客户安全策略与计划副总裁兼总经理 Tom Garrison称,“英特尔硬件及其带来的安全保障和技术,有助于筑牢防护层,以防攻击。”
英特尔客户在打造解决方案和服务时,要依靠芯片技术的广度和深度、垂直集成以及从边缘到云的实质性覆盖。英特尔的使命就是为所有架构提供通用的安全能力,帮助解决用户体验中日益复杂的问题。
无论是处于静态还是动态,数据都必须得到保护。要想从数据中提取价值,同时提供不折不扣的性能,数据保护是关键。未来10年内的架构进展将比过去50年里还要多。
英特尔院士兼英特尔安全架构和技术总监John Sell说:“英特尔在业界具有独一无二的优势,可以创造和提供真正创新的安全技术,覆盖架构、内存和互连的各个方面,”。
随着数据密集型计算需求的增长,我们需要兼顾部署的可扩展性和数据保护级别。为了应对客户挑战,未来数据中心平台上的全新机密计算能力有望同时提供规模和选择:
自12月份推出以来,英特尔的计算生命周期保障计划(Compute Lifecycle Assurance Initiative),已日益受到客户和生态系统合作伙伴的关注,包括最先推出的基础产品:英特尔透明供应链(Intel TSC)。
设备来源透明有助于为建立信任供应链打下基础。英特尔透明供应链允许平台制造商使用可信计算组织(TCG)的可信平台模块2.0(TPM)标准(又称ISO 11889)绑定平台信息和度量。这使得客户可用详细至组件级的报告,获取平台的可追溯性和可追责性。您可以参考英特尔Tom Dodson的一篇博客了解更多信息。
目前,英特尔透明供应链面向英特尔博锐平台个人电脑、英特尔NUC、英特尔至强可扩展处理器系统、英特尔固态硬盘和特定英特尔酷睿商用个人电脑的客户提供。
为了体现英特尔对供应链透明度、评估和安全保障的承诺,英特尔还通过英特尔透明供应链工具为生态系统合作伙伴提供助力。如今,Hyve Solutions、浪潮、联想(客户端和服务器)、神达、广达、Supermicro和ZT Systems都启用了英特尔透明供应链工具。此外,英特尔还与企业IT和云服务提供商一道,积极部署英特尔透明供应链。
可信计算组织(TCG)市场营销工作组主席Thorsten Stremlau说:“这种信任链过程提供了基于可信平台模块(TPM)的基本可追溯性。将组件级的可追溯性引入平台和系统,既增加了信任,又降低了电子部件伪造风险,同时也促进了采购标准的制定。这是行业发展的正确的方向。”
技术进步通常需要整个行业携手并进。英特尔以深厚的底蕴,持续协助客户和行业伙伴开发新的创新方法以提高硬件安全性。英特尔积极与行业共享这方面的知识与经验,积极参与领先的行业计划和标准组织并为其贡献力量,包括Linux基金会旗下的机密计算联盟、FIDO联盟旗下的IoT技术工作组,以及MITRE主导并最新扩展的通用缺陷列表(Common Weakness Enumeration)等。这些努力凸显了英特尔的独特能力,为行业建立更加可信的计算基石。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。