英特尔设想未来处理器是由紧凑的专用模块构建的,每个模块都针对不同的计算任务进行了优化。
英特尔希望通过近日在旧金山举行公布的三项新技术来实现这一目标,其中最引人关注的是英特尔所谓的Omni-Directional Interconnect(ODI),这项技术让工程师能够以类似乐高的方式构建芯片。
如今大多数处理器采用的是单片设计,晶体管和支撑元件都被蚀刻成独立的单个硅芯片,芯片行业几十年来一直采用这种方法,但现在摩尔定律的终结使得提高处理速度变得更加困难了,因此半导体制造商需要利用新的策略来满足买家的期望。
这就是ODI的用武之地。ODI技术消除了单个芯片上实现所有功能的需要,使工程师能够利用英特尔所谓的小芯片模块组装处理器。
这种方法的一个好处是具有灵活性。ODI让英特尔能够将通常单独出售的不同芯片进行混搭,成为功能强大、高度定制的处理器,并针对特定应用进行优化。ODI的另一个优点是有助于降低制造成本,如果模块化处理器中的一个小芯片有缺陷,只需要丢弃它并更换为另一个小芯片就行了,而不需要废弃掉整个处理器。
ODI技术通过融合英特尔现有的两种技术来实现这种模块化,首先是EMIB,可以像拼图一样连接多个小芯片,而另一个是Foveros,允许小芯片以三维结构彼此堆叠。
ODI技术在设计上有了重大提升,让英特尔大大增加了小芯片之间传输能量和数据的电子连接,这使得ODI带来了更高的带宽和更低的延迟,同时释放了更多空间可容纳更多晶体管。
除了ODI技术之外英特尔还推出了其他两项新技术,一个是Co-EMIB,一种连接Foveros处理器(由垂直堆叠芯片组堆叠组成)的方法,另一个是MDIO,是对某些英特尔处理器交换数据接口的改进。英特尔称MDIO让带宽密度提高到是目前技术的两倍多。
英特尔的模块化三维芯片可能将在可预见的未来投入市场。英特尔曾在12月的时候表示,希望最早在今年开始出货基于Foveros的模块化处理器。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。