当今智能手机、电脑和服务器中的大多数芯片都是由多个较小芯片密封在一个矩形封装中来组成的。
这些通常而言包括CPU、图形卡、内存、IO等在内的更多芯片是如何进行通信的?一种被称为EMIB(嵌入式多芯片互连桥接)的英特尔创新技术将带给你答案。它是一种比一粒米还小的复杂多层薄硅片,可以让相邻芯片以惊人的速度来回传输大量数据,高达每秒数GB。
英特尔EMIB(嵌入式多芯片互连桥接)技术帮助实现包括CPU、图形卡、内存、IO及其它多个芯片间的通信。EMIB是一个比一颗香米粒还小的复杂多层薄硅片,可以在相邻芯片间传输大量数据。(本图已获Walden Kirsch/英特尔公司授权)
当前,英特尔EMIB加速了全球近100万台笔记本电脑和FPGA(现场可编程门阵列)设备之中的数据流。随着EMIB技术更加主流化,这个数字将很快飙升,并覆盖更多产品。例如英特尔于11月17日发布的“Ponte Vecchio”通用GPU,就采用了EMIB技术。
为了满足客户的独特需求,这种创新技术允许芯片架构师以前所未有的速度将专用芯片组合在一起。传统的被称为中介层(interposer)的竞争设计方式,由内部封装的多个芯片放置在基本上是单层的电子基板上来实现的,且每个芯片都插在上面,相比之下,EMIB硅片要更微小、更灵活、更经济,并在带宽值上提升了85%。如此可以让你的产品,包括笔记本电脑、服务器、5G处理器、图形卡等运行起来快得多。下一代EMIB还可以使这个带宽值提高一倍甚至三倍。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。