英特尔公司日前展示一种新型3D封装技术,用于实现面对面逻辑堆叠,并计划于明年下半年正式投放市场。而就在该公司首席架构师阐述其未来计算架构发展愿景的同一天,芯片巨头亦推出了新的处理器微架构与一套新的图形架构。
这项3D封闭技术被称为Foveros,堪称英特尔公司二十年来将三维异构架构与逻辑及存储相结合的堆叠芯片的设计结晶。与目前市场上存在的被动中介层以及堆叠内存技术不同,Foveros将3D封装概念扩展至高性能逻辑领域,包括CPU、图形以及AI处理器。
英特尔公司首席架构师兼核心与视频计算部门高级副总裁Raja Koduri表示,“我们正在加紧扩大我们在制程与封装领域的领先地位。”
Kodrui表示,这种设计方案参考了半导体行业在集成3D封装中对不同芯片进行连接的探索,并“最终找到了将其转化为真正可制造产品的方法。”
Koduri表示,英特尔公司已经开始利用Foveros技术构建实际产品,旨在响应客户的要求。在此次大会上,他展示了第一套所谓混合x86架构,其采用10纳米逻辑小芯片加22纳米基础芯片及内存,并配合12 x 12 x 1毫米Foveros封装技术,从而将待机功耗控制在仅2毫瓦。
首款混合型x86架构(图片来源:英特尔)
根据Koduri的说法,Foveros技术将为设计人员提供更强大的灵活性,能够将IP模块与各类内存与I/O元素进行混合与匹配。他同时强调称,芯片巨头还计划在整个英特尔产品中应用此项技术。
Koduri是在英特尔公司创始人之一Robert Noyce家中举行的新闻发布会上公布Foveros技术的。在两个小时的演讲中,他概述了该公司对于架构路线图的发展愿景,讨论了计算范式发生的迅速变化,以及传统制程的发展空间已经逐步走向尽头。
Koduri预测称,这套新的架构将定义下一个计算时代。他表示,未来十年当中,计算架构的创新成果将超过以往五十年的总和。
他表示,“我们将紧紧立足这个时代开拓出自己的前进道路。”
英特尔公司指出,采用2D与3D封装技术将逾期更灵活地将小型IP芯片加以结合,从而满足不同的应用、功耗以及外形尺寸等需求。(图片来源:英特尔)
Koduri还概述了英特尔公司在设计与工程模式方面的转变,整个转变以六大核心支柱为基础:制程、架构、内存、互连、安全与软件。
Koduri解释称,对于英特尔而言,摩尔定律的核心绝不仅仅是提高计算资源密度。他承认,进一步实现规模扩展的作法正面临着重大挑战,因此“我们必须围绕物理学进行创新。我们需要创新——这不仅是为了保障英特尔自身的利益,同时也是为了支撑行业的整体利益。”
除了Foveros技术之外,英特尔公司还借此机会发布了代号为“Sunny Cove”的下一代CPU微架构。其旨在提高通用计算任务的每时钟性能与效率,同时亦引入了面向新型AI与密码学等专用计算任务的加速功能。
根据英特尔公司的介绍,Sunny Cove将提供更强大的并行性,采用新型算法降低延迟,增加更大的缓冲区与缓存容量,从而优化以数据中心为中心的工作负载类型。其将成为明年晚些时候推出的下一代英特尔至强与酷睿处理器的基础架构。
在图形方面,英特尔公司则推出了新的Gen11集成显卡——其明年将以10纳米处理器形式亮相,并勾勒出新的Xe架构发展计划。Xe架构将在2020年支撑起新的集成与独立显卡芯片。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。