英特尔CEO在Hot Chips主题演讲中,承诺将“继续推动摩尔定律向前发展”
英特尔公司CEO Pat Gelsinger认为,未来计算机将完全由小芯片组装而成。而凭借自家先进封装技术,芯片巨头希望再给摩尔定律续续命。
Gelsinger在今年线上举办的年度Hot Chips大会上发表了主题演讲。演讲内容当然以自家技术为核心,强调用大量小芯片组装系统,而对应的成果自然就是即将推出的英特尔Sapphire Rapids至强Scalable CPU。
根据Gelsinger的介绍,此举标志着芯片行业将由晶圆代工时代,全面转向他提出的系统代工时代。而新时代的基本组成元素,就是晶圆、封装、小芯片加软件升级的结合。
他解释道,“大家应该已经感受到,机架正在成为新的系统,并通过高级封装将多个芯片/小芯片整合起来。所以机架系统本身,就代表着先进封装技术的未来发展方向。”
“我所说的机架即系统,指的是机架正成为一种以小芯片为基本单元的先进封装系统。英特尔认为,未来的计算技术一定会朝着这个方向发展。”
这背后的现实驱动因素在于,客户不仅想要更多芯片,而且想要更强大的芯片。毕竟如今的AI模型规模越来越大,数据量越来越夸张。英特尔预计到2030年,芯片内的晶体管数量将达到万亿级别。
Gelsinger补充道,“目前,单块芯片上封装的晶体管大概在1000亿个,而这个十年末推出万亿级晶体管芯片已经基本成为定局。”
Ribbon FET是英特尔版的环绕栅极(Gate-All-Around,简称GAA)晶体管架构,其中栅极材料被完全包裹在导电通道周围。
根据Gelsinger的介绍,成就这种更大、更强系统的唯一方法,就是将其解构成更小的功能单元,借此实现“定制化异构功能”。在这里,2D与3D封装技术就有了用武之地,能帮助架构师和设计师“为正确的问题使用正确的晶体管”。
Gelsinger的观点是,应该为电源、射频、逻辑和内存分别选择最适合的制程节点,借此制造出单块小芯片,再利用先进的封装技术将大量小芯片组装起来构建起完整芯片。
Gelsinger提到,“我们已经实现了下一代芯片功能,并将其纳入即将于明年推向市场的Meteor Lake等产品。除了Arrow Lake和我们的第二代3D封装技术之外,新一代产品还将获得由先进封装带来的更多优势。”
但实现这一切的前提,就是把各部件的组合方式整理成统一标准。面对这个问题,Gelsinger再次挥舞起英特尔的影响力大旗,表示已经在以PCIe标准为基础,着力为芯片到芯片互连建立起所谓通用芯片互连高速(UCIe)标准。
有了UCIe,不同供应商的不同部件也能被整合在同一块芯片当中。
“到那时候,大家可以在英特尔这边选两块小芯片,在台积电那选一块小芯片,再加上TI的电源组件和Global Foundries的IO组件,通过英特尔的先进封装技术把这一切组装起来。当然,选择其他组装供应商也行,总之这种通用混搭的思路正在成为现实。”
既然是英特尔准备的演讲,怎么可能不提摩尔定律呢?Gelsinger表示,凭借这一系列进步,摩尔定律应该还能再抢救一下。
他总结道,“摩尔定律提出的,随时间推移晶体管数量持续倍增的理念,从根本上支撑起整个计算世界的快速进步。”他承诺英特尔将“继续推动摩尔定律向前发展。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。