如今的英特尔公司明显决定走上Alphabet董事长兼斯坦福大学前任校长John L. Hennessy提出的“特定领域架构”战略之路。为此,英特尔已经在CPU、GPU、各类ASIC以及FPGA等领域全面开花。虽然这种到处试水的作法有点“大力出奇迹”的意味,但也确实在塑造异构计算领域带来了不小的吸引力。但很明显,这种方式要求极高的资本密度、耗费大量工程资源,同时也会给软件开发者带来巨大的负担。在今天的文章中,我们就具体聊聊其中一种架构——作为英特尔家族全新补充成员的高性能GPU。
英特尔最近公布了即将推出的数据中心GPU Xe HPC的详细信息,这款产品代号为Ponte Vecchio(PVC)。英特尔大胆暗示,PVC GPU的峰值性能约为当前最快GPU英伟达A100的两倍。2022年,阿贡国家实验室的百亿亿次超级计算机Aurora就将采用PVC与Sapphire Rapids(多区块下一代至强处理器)构建。从这个角度看,这项技术本身应该已经相当成熟。
英特尔希望用这款GPU产品在高性能计算(64位浮点运算)与AI(8位/16位整数与16位浮点运算)方面对抗AMD与英伟达。Xe HPC采用一种多区块、多进程节点封装方案,采用新的GPU核心、HBM2e存储器、新的Xe Link互连以及使用超过1000亿个晶体管实现的PCIe Gen 5。考虑到实际尺寸,高频工作时的功耗就成了新的问题。但从Xe的设计中可以看出,英特尔很明显是有条有理:封装较小晶片不仅有助于降低开发与制造成本、同时也能缩短产品的上市时间。
Ponte Vecchio采用多区块、多进程节点封装。
Ponte Vecchio预计将于明年年初开始向阿贡国家实验室的Aurora供货,届时将由数万块GPU为这台由美国能源部资助的全球首台百亿亿次级超级计算机提供算力,实际性能至少可达成1.1百亿亿次浮点运算。
Ponte Vecchio承诺在英特尔的HPC与AI领域发挥重要作用。
初步性能声明无疑令人印象深刻,其表现可达英伟达A100的约两倍,矢量引擎每秒可提供45万亿次FP32触发操作,矩阵处理单元则可实现1468 INT8 TOPS。这款怪物级芯片的功耗约为600瓦,发热量肯定低不了。下图为英特尔公司在今年8月的架构日活动上公布的演示文稿。虽然没有做出横向对比,但这里呈现的肯定是最佳性能,也似乎再次强化了“两倍于A100”的结论。
Xe平台包含片上互连链路与开关,可高效扩展至8 GPU。
另一个有趣的点,在于英特尔会如何对Xe HPC与Habana Labs Gaudi进行区别定位。一种可能的猜测是将Ponte Vecchio推向HPC超级计算,而Gaudi则重点关注云服务商的可扩展训练平台。这很大程度上取决于英特尔打算为两款产品投入多少资源以吸引相应的软件团队。
除了直观的规格与码数之争,英特尔应该还会利用Aurora围绕Ponte Vecchio GPU构建开发者社区,包括将OneAPI全面引入AI与HPC领域。英特尔公司从来没有放弃过为高性能计算和AI提供单一抽象这个雄心勃勃、但又困难重重的目标。在最近的简报中,英特尔公司重申了这方面意图,并带来了不少令人信服的证据。可以看到,OneAPI正在获得市场的认可与接纳。我们虽然担心Habana还是无法支持该软件,但就目前的情况看,这种兼容性也确实不算高优先级任务。
英特尔表示,目前已经有80多款HPC与AI应用程序能够支持早期Ponte Vecchio芯片上的OneAPI。成绩不错,但别忘了英伟达CUDA可是有数百家支持者。
英特尔在GPU方面的成就给我留下了深刻印象。但Ponte Vecchio还需要克服两道难关才能真正取代AMD与英伟达:其一是保持合理的功耗,其二则是实现软件的易用性与高优化度。第二点尤其重要,英特尔必须简化代码并优化模型、降低使用难度,才能让声明的性能水平真正成为用户手中的可用资源。
在我看来,在Pat Gelsinger的英明领导下,Ponte Vecchio无疑有机会成为英特尔进军新时代的先锋与典范。最终表现如何,让我们拭目以待。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。