作者:MARIA DEUTSCHER
更新时间:美国东部时间2024年3月20日15:34
英特尔公司有望获得高达195亿美元的联邦资金和贷款,用于扩建其国内芯片制造基础设施。
美国商务部将通过一份初步的、不具约束力的备忘录条款提供资金。根据协议,英特尔将获得高达85亿美元的直接资助,并可选择获得价值高达110亿美元的贷款。预计这笔交易将成为2022 年《芯片和科学法案》下发放的最大一笔款项。
联邦融资将支持英特尔在五年内斥资1,000多亿美元扩建国内工厂网络的计划。该公司正在亚利桑那州、新墨西哥州、俄亥俄州和俄勒冈州建设芯片工厂和研究中心。英特尔将有资格获得财政部高达25%的计划投资税收抵免。
英特尔首席执行官Pat Gelsinger表示:“今天对于美国和英特尔来说都是一个决定性的时刻,因为我们正在努力推动美国半导体创新的下一个伟大篇章。”“芯片法案的支持将有助于确保英特尔和美国在人工智能时代保持领先地位,因为我们建立了一个有弹性、可持续发展的半导体供应链,为我们国家的未来提供动力。”
尖端晶体管
据《金融时报》报道,大部分资金将用于开发公司的Intel 18A工艺。该技术是这家芯片制造商在晶体管质量方面赶超台湾半导体制造公司的核心技术。公司高管预计,Intel 18A在2025年投入使用后,将使该芯片制造商“重新夺回工艺领先地位”。
预计Intel 18A将成为即将推出Clearwater Forest服务器系统芯片系列的基础。据IEEE Spectrum报道,该系列处理器理论上可配备多达3000亿个晶体管。英伟达新推出的 Blackwell B200 旗舰显卡大约配备了2080亿个晶体管。
每台Clearwater Forest处理器都有三组芯片以三维配置堆叠在一起。其中一组芯片包含逻辑电路,即用于执行计算的晶体管。其余的芯片组将包括处理器的高速缓存、稳压器和其他辅助元件。
英特尔预计将于2024年下半年开始出货采用全新全栅极(GAA)晶体管架构的处理器。Clearwater Forest中的逻辑电路芯片将使用这种GAA架构的第二代改进型版本。
英特尔处理器由许多模块或单元组成,每个模块或单元包含的晶体管数量相对较少。Intel 18A工艺将使在同一单元中包含不同物理尺寸的 GAA 晶体管成为可能。据英特尔公司称,这种可定制性将使其工程师能够开发出速度更快、效率更高的电路。
在Clearwater Forest处理器中,只有包含逻辑电路的芯片采用Intel 18A工艺制造。电压调节器等辅助元件的芯片将使用早期的制造工艺生产。原因是这些辅助元件的改进速度慢于摩尔定律,这意味着它们无法充分利用Intel 18A 提供的性能优势。
更快的3D封装
英特尔千亿美元基础设施投资计划的重点之一是其在新墨西哥州的芯片制造中心。今年年初,该公司扩建了一个名为Fab 9的新工厂。该工厂将生产3D封装组件,英特尔的这种硬件将垂直堆叠处理器(如 Clearwater Forest)中的芯片连接在一起。
每个Clearwater Forest处理器中的芯片都是通过一种名为Foveros Direct 3D的新封装技术连接在一起的。据英特尔公司称,该技术使芯片之间的连接数量比当前一代硬件多16倍。这将加快数据传输速度,从而提高处理速度。
Foveros Direct 3D利用放置在处理器芯片表面的铜层在芯片之间移动数据。在制造过程中,两个芯片堆叠在一起后,铜层被加热,使它们结合在一起。这就形成了一种硬件连接,使电信号能够在处理器的不同模块之间快速移动。
美国商务部长Gina Raimondo表示:“通过这项协议,我们将帮助英特尔吸引超过1000亿美元的投资,这是美国半导体制造业有史以来最大的投资之一,将创造3万多个高薪工作岗位,并点燃下一代创新的火花。”
英特尔的基础设施投资将为公司创造1万个工作岗位和2万个建筑岗位。此外,这家芯片制造商预计还将为其供应商和其他组织间接提供5万多个工作岗位。根据《芯片和科学法案》分配给该计划的资金将于今年晚些时候到位。
好文章,需要你的鼓励
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。