在晶体管诞生75周年之际,英特尔在IEDM 2022上宣布将把封装技术的密度再提升10倍,并使用厚度仅三个原子的新材料推进晶体管微缩。
在IEDM 2022(2022 IEEE国际电子器件会议)上,英特尔发布了多项突破性研究成果,继续探索技术创新,以在未来十年内持续推进摩尔定律,最终实现在单个封装中集成一万亿个晶体管。英特尔的研究人员展示了以下研究成果:3D封装技术的新进展,可将密度再提升10倍;超越RibbonFET,用于2D晶体管微缩的新材料,包括仅三个原子厚的超薄材料;能效和存储的新可能,以实现更高性能的计算;量子计算的新进展。
英特尔技术开发事业部副总裁兼组件研究与设计总经理Gary Patton表示:“自人类发明晶体管75年来,推动摩尔定律的创新在不断满足世界指数级增长的计算需求。在IEDM 2022,英特尔展示了其前瞻性思维和具体的研究进展,有助于突破当前和未来的瓶颈,满足无限的计算需求,并使摩尔定律在未来继续保持活力。”
此外,为纪念晶体管诞生75周年,英特尔执行副总裁兼技术开发总经理Ann Kelleher博士将于IEDM 2022主持一场全体会议。届时,Kelleher将概述半导体行业持续创新的路径,即围绕系统级战略联合整个生态系统,以满足世界日益增长的计算需求并以更有效的方式实现创新,从而以摩尔定律的步伐不断前进。此次会议将于太平洋标准时间12月5日周一上午9点45分(北京时间12月6日周二凌晨1点45分)开始,主题为“庆祝晶体管诞生75周年!摩尔定律创新的演进”。
对满足世界的无限计算需求而言,摩尔定律至关重要,因为数据量的激增和人工智能技术的发展让计算需求在以前所未有的速度增长。
持续创新正是摩尔定律的基石。在过去二十年,许多里程碑式的创新,如应变硅(strained silicon)、Hi-K金属栅极(Hi-K metal gate)和FinFET晶体管,都出自英特尔组件研究团队(Intel’s Components Research Group)。这些创新在个人电脑、图形处理器和数据中心领域带来了功耗和成本的持续降低和性能的不断增长。英特尔组件研究团队目前的路线图上包含多项进一步的研究,包括RibbonFET全环绕栅极(GAA)晶体管、PowerVia背面供电技术和EMIB、Foveros Direct等突破性的封装技术。
在IEDM 2022,英特尔的组件研究团队展示了其在三个关键领域的创新进展,以实现摩尔定律的延续:新的3D混合键合(hybrid bonding)封装技术,无缝集成芯粒;超薄2D材料,可在单个芯片上集成更多晶体管;能效和存储的新可能,以实现更高性能的计算。
英特尔组件研究团队所研发的新材料和工艺模糊了封装和芯片制造之间的界限。英特尔展示了将摩尔定律推进到在单个封装中集成一万亿个晶体管的关键步骤,包括可将互联密度再提升10倍的先进封装技术,实现了准单片(quasi-monolithic)芯片。英特尔还通过材料创新找到了可行的设计选择,使用厚度仅三个原子的新型材料,从而超越RibbonFET,推动晶体管尺寸的进一步缩小。
英特尔通过下一代3D封装技术实现准单片芯片:
英特尔探索通过超薄“2D”材料,在单个芯片上集成更多晶体管:
为了实现更高性能的计算,英特尔带来了能效和存储的新可能:
英特尔继续引入新的物理学概念,制造用于量子计算的性能更强的量子位:
了解更多信息,请访问:解析英特尔的系统级代工模式(视频) | Tahir Ghani让摩尔定律继续有效(视频) | 摩尔定律的现在及未来(Ann Kelleher署名文章)
好文章,需要你的鼓励
谷歌CEO皮查伊在AI竞赛低谷期坚持"信号降噪"原则,顶住压力加倍投入,最终带领谷歌凭借Gemini系列重夺领先。他坚信AI将超越火与电的革命性影响,通过递归自我改进极大降低创意实现门槛,这场"创造力民主化"浪潮或将解锁80亿人的认知潜能。
浙江大学和吉利汽车研究院联合团队提出的FreeTimeGS是一种创新的动态3D场景重建方法。不同于传统方法,它允许高斯基元在任意时空位置自由出现,并赋予每个基元运动功能,使其能够随时间移动到相邻区域。研究通过4D正则化策略解决了高不透明度基元阻碍优化的问题。在多个数据集测试中,该方法在渲染质量和速度上均大幅超越现有技术,特别是在处理复杂动态场景时,使用单个RTX 4090 GPU能以467 FPS的速度实现1080p实时渲染,为电影制作、游戏和虚拟现实等应用提供了新可能。
李飞飞的World Labs以"空间智能"重新定义AI,专注3D物理世界理解,4个月估值飙至10亿美元,获科技巨头集体押注。她揭示语言无法编码物理世界,而DNA双螺旋等突破性发现都源于三维空间的深度认知。
这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。