英特尔今天举行了2022年投资者会议,详细介绍了公司计划未来几年推出的新芯片和半导体制造技术。
英特尔芯片开发工作的主要目标,是到2025年重新获得每瓦晶体管性能的行业领先地位。从长远来看,英特尔的目标是在本世纪末开始生产具有约1万亿个晶体管的处理设备。
此外英特尔的高官们还分享了有关英特尔近期计划的一些信息。有关日程安排:多款芯片新品,包括一款数据中心处理器,将结合GPU和CPU的元素;在制造方面,英特尔公布了有关即将推出的7纳米芯片制造工艺的详细信息,包括用户期待中的性能改进。
新制造工艺
英特尔最新的、最先进的CPU是基于10纳米工艺的,目前英特尔正在努力将芯片制造设施升级为更新的7纳米技术,也就是Intel 4。
英特尔预计,将在2022年下半年让Intel 4“制造就绪”,据称,基于该工艺的芯片每瓦晶体管性能将比当前一代高出20%。
Intel 4特别引人关注,因为这是英特尔首个采用极紫外光刻(EUV)技术工艺的芯片。EUV是一种芯片制造方法,利用激光束将晶体管雕刻成硅晶片,目前英特尔的主要竞争对手都已经在生产中使用该技术。
采用了该技术的Intel 4,下一代将是Intel 3,计划在2023年下半年推出,后者将采用更为先进的制造技术,并且将英特尔芯片每瓦性能进一步提高18%。
英特尔路线图中接下来的另外两项制造工艺分别称为Intel 20A和Intel 18A。Intel 20A预计将在2024年上半年率先推出,预计每瓦性能将提高15%,Intel 18A预计将在2024年下半年达到制造就绪的状态,届时性能将进一步提升10%。
GPU市场成为关注焦点
英特尔2022年投资者会议的一个主要焦点,是英特尔的加速计算系统和图形部门(AXG)。去年英特尔成立了AGX,负责超级计算芯片和GPU的开发,以及最近公布的区块链加速器计划。
英特尔向投资者表示,预计今年AGX的收入规模将超过10亿美元,而且到2026年这个数字将增长到100亿美元。
其中,GPU将成为今年AGX收入超过10亿美元的主要贡献来源。去年8月,英特尔宣布计划通过推出面向消费者和数据中心市场的独立图形卡,与GPU市场领导者Nvidia公司展开竞争。今天,英特尔透露了该计划的最新消息,预计到2022年将出货400万个图形卡。
英特尔表示,首批配备独立GPU的笔记本电脑将于该季度推出,首批配备英特尔图形卡的台式机将在第二季度推出。
下一代GPU
英特尔首批笔记本电脑和台式机GPU系列的代号为Alchemist。英特尔称,Alchemist之后,第二代GPU产品线将在2023年或者2024年推出,目标是视频游戏爱好者市场。第三代GPU代号是Celestial,最早将于2024年推出,目标是英特尔所谓的超级发烧友市场。
与此同时,英特尔还分享了有关数据中心GPU产品组合中即将推出的两项新产品的详细信息。
Arctic Sound-M是英特尔即将推出的带有基于硬件AV1视频编码器模块的数据中心图形卡,将主要针对视频内容处理和云游戏流媒体等场景,英特尔承诺与当前的芯片相比,该图形卡的带宽将提高30%,预计今年年中开始出货。
接下来,英特尔计划推出一款代号Falcon Shores的新型处理器,将把CPU和GPU元素打包在一起,预计在2204年推出,将提供比市场上同类产品在每瓦性能、计算密度和内存容量上高出5倍。
押注汽车行业
英特尔今天还分享了有关英特尔代工服务(IFS)业务的最新信息。该业务将利用英特尔芯片工厂为其他企业组织生产定制处理器。据英特尔透露,IFS正在成立一个专门的汽车部门来制造面向汽车制造商的芯片。
英特尔表示,IFS正在开发用于车辆的“高性能开放式汽车计算平台”,该平台将允许汽车制造商利用英特尔的小型芯片技术将多种类型的处理模块(如GPU和CPU)组合在一个系统中。英特尔表示,IFS不仅会为汽车制造商生产芯片,还将为他们提供处理器设计方面的帮助。
对于半导体市场中其他主流厂商来说,汽车行业也一直是他们的关注重点。去年10月高通与投资公司SSW Partners合作,以46亿美元的价格收购了总部位于斯德哥尔摩的智能汽车技术供应商Veoneer。最近,高通宣布与通用汽车公司合作开发一种驾驶员辅助系统,该系统采用了高通Snapdragon处理器系列的片上系统。
英特尔此次加大对汽车行业投入的举动,将会给高通和Nvidia带来更多的挑战,Nvidia正在为自动驾驶汽车提供一系列处理模块。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。