经比较测试,英特尔在AI等关键工作负载上相较于竞争对手拥有更优的性能,以及更低的总体拥有成本(TCO)
随着第四代英特尔®至强®可扩展处理器在2023年1月的正式推出,英特尔通过其业界领先的加速器引擎在性能方面取得了重大进展,并在AI、数据分析、科学计算(HPC)等关键工作负载方面提高了每瓦性能。其中,第四代至强的快速出货、被全球客户的广泛采用,以及在广泛商业应用场景中的多元化关键工作负载上表现出的领先性能,均已引起业界关注。
今日,在经过数周与最具可比性的竞对处理器严格、全面的比较测试后,英特尔分享了相比于简单的行业基准测试更为令人信服的结果。
英特尔公司副总裁兼至强产品部总经理Lisa Spelman指出:"诚如我们在第四代至强可扩展处理器发布时所言,该产品在支持客户最重要的工作负载上处于行业领先地位,现在,我们有了具体的数据可以进行佐证,这些数据有助于消除不确定性,证明至强相比业界其他产品具备持续的价值和领先地位。"
在主流计算中,更快获取数据与洞察
目前,市场上最常部署的解决方案是基于中等核数所提供的,在该领域中,每核性能、功耗以及吞吐量是关键的性能指标。基于此,英特尔将其32核的第四代至强可扩展处理器与竞争对手最佳、主流的32核处理器进行了比较。
通常来说,像SPEC CPU这样的通用基准测试是非常重要的,但是对于工作负载需求不断变化的客户来说,此类测试并不能完全展现整体性能情况。实际上,在诸如数据库、网络和存储等对客户至关重要的工作负载上,至强可扩展处理器可以通过提供更高的CPU性能、更高的每瓦特性能,以及更低的总体拥有成本(TCO)轻松击败竞争对手。此外,客户还看到了减少服务器数量、总体功耗,以及降低二氧化碳排放等重要的可持续发展优势。
AI效率的提升可优化用户体验,驱动收入增长
至强的架构适用于AI,与此同时,英特尔在软件方面的投入可以在所有主流框架、库以及模型类型上实现并优化AI。测试结果表明,英特尔凭借例如英特尔®高级矩阵扩展(英特尔® AMX)等先进的硬件加速技术,其处理器在AI工作负载上持续保持领先。
事实上,内核数量的增加并不能代表实现最佳性能。英特尔® AMX使得第四代至强可扩展处理器以惊人的速度扩展,并且具备远超仅凭核数所能达到的性能。该领先的AI加速引擎内置在每个至强可扩展处理器的内核中,这是英特尔的竞争对手所没有的,其客户也无法从中获益。
HPC领先性为建模、预测、模拟提供更强性能
在测试特定行业的科学计算工作负载时,英特尔将其采用了英特尔®AVX-512的56核英特尔®至强® CPU Max系列处理器与竞争对手的顶级96核产品进行了对比。通过将高内存带宽下的最佳算力与英特尔HPC引擎相结合,至强CPU Max系列在众多实际的HPC工作负载中,如地球系统建模、能源与制造等,展现出高于竞争对手40%的性能优势。
点评:在人们的认知中,GPU是处理AI工作负载的首选,CPU的表现会逊色很多。但是第四代英特尔®至强®可扩展处理器的表现让这种看法完全站不住脚,而且CPU更适合计算密集型工作负载。可以预见的是多样化的计算架构是AI发展的必然,不管是CPU、GPU还是FPGA,适合的才是最好的。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。