据称,不受Meltdown与Spectre影响的CPU即将于今年推出。
英特尔公司已经公布了其下一代处理器——最早将在今年下半年出货——且据称其中绝不存在安全设计缺陷。
过去几个月以来,芯片巨头一次又一次在公开场合与幕后变更立场的作法,确实让人感到有些难以置信。
在面向记者及分析师发表的公开声明与内部简报当中,芯片巨头将说辞由最初的“这些bug被严重夸大了,并不属于实际问题”,转向“确实属于问题,但很容易解决”,再到“确实很难解决,但至少不会引发不良影响”,而后是“虽然会带来些许不良影响,但无需太过担心”,一直到最终的“这些问题非常严重,我们重新设计了处理器方案以解决上述失误。”
日前,英特尔公司表示其即将推出的台式机与服务器处理器将不再受到Meltdown以及两大Spectre变种之一的影响。具体来讲,Meltdown与Spectre Variant 2将在硬件层面得到修复,而Spectre Variant 1则将以软件形式加以解决。Meltdown允许恶意软件访问其内核,换言之可以访问其它应用程序的对应内存空间。Spectre Variant 2可被恶意软件用于读取内核内存,而Spectre Variant 1则允许恶意代码窥探应用程序内存——通常来讲,这意味着某一浏览器选项中的JavaScript代码将可监听另一选项卡中的数据。Variant 1可通过补丁进行修复,从而阻断Spectre类攻击的实施路径。
根据我们掌握的情况,芯片巨头重新设计了其处理器架构以引入“分区”机制,旨在预防恶意软件利用数据泄漏漏洞窥探应用程序、管理程序以及操作系统当中的密码以及其它敏感信息。
我们假设此次修复确实有效,因为英特尔最近已经成功调整微码以解决Spectre威胁。
英特尔公司在本周四表示:“这些变化将从英特尔的下一代至强可扩展处理器起步,并预计涵盖2018年下半年发布的第八代英特尔酷睿处理器。”
换句话来说,您可以通过安装系统修复补丁或者购买新的芯片来解决这个安全问题。目前尚不清楚芯片电路的调整是否会影响到处理器的实际性能,英特尔公司也没有公布与之相关的技术细节信息。根据惯例,每一代芯片都会在上代基础上适当实现性能提升。但由于此次引入的必要调整,下一代芯片恐怕无法带来显著的性能增强效果。
英特尔公司首席执行官Brian Krzanich日前指出,“大家可以将这种分区视为应用程序与用户特权级别之间的额外‘保护性壁垒’,并将成为阻断恶意攻击者的重要屏障。”
Krzanich同时补充称,英特尔公司已经发布了针对过去五年所推出全部产品的微码更新,从而帮助其解决Spectre与Meltdown安全威胁。用户可以从操作系统及主板制造商处获取这些更新。
来自英国萨里大学的信息安全专家Alan Woodward教授评论称:“看起来英特尔公司已经接受了残酷的现实,即虽然他们能够通过软件更新修复Variant 1,但另外两项漏洞仍然造成严重威胁。虽然程度不大,但他们还是被迫对自身架构作出了调整。”
“他们谈到了分区问题,这很好。因为此次安全问题的核心,就在于访问到应用程序本不该接触的数据。然而,目前尚不清楚该分区机制的工作原理,也无从知晓其能够彻底解决相关旁侧攻击。”
Woodward教授还补充称,观察这种硬件调整对执行速度产生的影响也非常有趣。早期的软件补丁已经严重削弱了CPU的性能,其中某些补丁在部署时还会引发其它问题。
他总结称,“目前尚不清楚现有硬件是否将继续包含这些漏洞。其中一些问题可能将迎来缓解方案,但可以肯定的是,这些问题很难被彻底清除。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。